1 دقيقة قراءة تقنية

كلمات المرور التي تُنشأ بواسطة الذكاء الاصطناعي ليست أكثر أمانًا مما تبدو عليه

انتشار عادة خطيرة على الإنترنت: توليد كلمات مرور غير آمنة عبر الذكاء الاصطناعي

يبدو الأمر بسيطًا في الظاهر، إذ يلجأ الكثيرون إلى استخدام أدوات الذكاء الاصطناعي لإنشاء كلمات مرور جديدة بسرعة وسهولة. فبدلاً من تكرار اسم حيوان أليف أو استخدام كلمات غير آمنة، يختار المستخدمون ببساطة طلب كلمة مرور من ChatGPT أو غيره من نماذج الذكاء الاصطناعي، ليحصلوا على سلسلة عشوائية تبدو قوية، مثل T#9vLmq$2Rk!، ويقومون بنسخها واستخدامها.

لكن الحقيقة أن هذه الطريقة قد تكون أكثر خطورة مما يتصور البعض، وفقاً لأبحاث حديثة. فدرست دراسة أجريت العام الماضي 1000 كلمة مرور تولدها نماذج الذكاء الاصطناعي الرائدة، مثل ChatGPT وDeepSeek وLlama، وتبين أن نسبة كبيرة من هذه الكلمات يمكن اختراقها بسهولة.

نتائج الدراسة أظهرت أن 88% من كلمات مرور DeepSeek و87% من Llama فشلت في مقاومة الهجمات، بينما أداء ChatGPT كان أفضل، لكنه لا يزال ينتج كلمات مرور يمكن فك شفرتها في أقل من ساعة في حوالي ثلث الحالات. هذا يعني أن الاعتماد على الذكاء الاصطناعي لإنشاء كلمات مرور قوية ليس حلاً آمناً.

لماذا لا ينجح الذكاء الاصطناعي في توليد كلمات مرور عشوائية حقيقية؟

السبب يكمن في طبيعة نماذج اللغة الاصطناعية، فهي تعمل على توقع ما يأتي بعد بناءً على أنماط في البيانات التي تدربت عليها. وهذا يجعلها جيدة في المهام التي تعتمد على التعرف على الأنماط، مثل الكتابة أو التلخيص أو الترجمة. لكن إنتاج كلمة مرور فريدة تمامًا يتطلب شيئًا لا يمكن للذكاء الاصطناعي فعله، وهو إنتاج نتائج لا ترتبط بأي أنماط سابقة.

وبينما تبدو كلمات المرور التي تولدها النماذج عشوائية، إلا أنها في الحقيقة تتبع بعض الاتجاهات، مثل طول النص، توزيع الرموز والأحرف، أو أماكن تكرار الأحرف. وتستغل أدوات الاختراق الحديثة هذه الأنماط للتحليل وفك الشفرات بسرعة أكبر.

علاوة على ذلك، هناك جانب آخر مهم يُغفل في كثير من الأحيان: عندما تطلب من ChatGPT أو غيره توليد كلمة مرور، فإن نتائجها ليست فريدة بشكل كامل، إذ قد تتشابه الأنماط بين عمليات توليد كلمات المرور لمستخدمين مختلفين. ومع تكرار الطلبات على نطاق واسع، تقلّ احتمالية أن تكون كلمة المرور الناتجة فريدة ومميزة.

مخاطر مشاركة البيانات مع الذكاء الاصطناعي

جانب آخر يجب التنبه إليه هو أن، عند استخدام أدوات الذكاء الاصطناعي المجانية، تُرسل طلباتك وتفاعلاتك إلى خوادم الشركات، وغالبًا ما تُستخدم هذه البيانات لتحسين النماذج مستقبلًا. هذا يعني أن كلمات المرور التي تولدها قد تكون معرضة للاطلاع أو حتى الاستخدام من قبل الآخرين، خاصة إذا لم تكن تتبع إجراءات حماية مناسبة.

وفي حالة استخدامك لـ ChatGPT أو Claude عبر المتصفح، فإن جلسات الدردشة تُخزن بشكل يتيح استرجاعها، ما يزيد من خطر تسرب البيانات، خاصة إذا لم تحذف سجل المحادثة.

ما الحل الأفضل لإنشاء كلمات مرور قوية؟

الحل بسيط، ويكمن في الاعتماد على أدوات مخصصة لذلك، وهي برامج إدارة كلمات المرور المعتمدة، التي توفر توليد كلمات مرور عشوائية تمامًا، وتكون آمنة من الناحية التشفيرية، ولا تعتمد على أنماط يمكن استغلالها.

كما أن من المهم أن يتم تخزين كلمات المرور بشكل آمن، وأن يتم حذف سجلات الدردشة مع أدوات الذكاء الاصطناعي بشكل دوري، لتقليل المخاطر.

هل التوفير في الوقت والأمان على حساب الإهمال؟

الاعتماد على أدوات الذكاء الاصطناعي لتوليد كلمات مرور قد يبدُو مريحًا، لكنه يفتقر إلى الحماية المطلوبة. فالأمان الحقيقي يتطلب استخدام أدوات مخصصة، لا سيما أن التوازن بين الراحة والأمان هو أمر قد يُخدع فيه بسهولة.

نصائح الأمان الأساسية

– استخدم دائمًا برامج إدارة كلمات المرور الموثوقة.
– لا تعتمد على توليد كلمات المرور عبر أدوات الذكاء الاصطناعي إلا لأغراض غير حساسة.
– احذف سجل الدردشات مع أدوات الذكاء الاصطناعي بشكل منتظم.
– كن واعيًا بأن مشاركة البيانات مع أدوات مجانية قد تعرض معلوماتك للخطر.

في النهاية، غالبًا ما تكون الخطوات الصغيرة في عاداتنا اليومية هي الفرق بين بيئة رقمية آمنة وأخرى معرضة للمخاطر. الاختيار الصحيح للأدوات هو بداية الطريق نحو حماية بياناتك الرقمية بشكل فعال.

المصدر: Latest from TechRadar

اترك تعليقاً

هل أنت مستعد لتكون قصة نجاحنا القادمة؟

دعنا نجرب رؤيتك الرقمية ونبني حضورك الرقمي بكل تفاصيل وإبداع.

واتساب