أبحاث شركة Check Point تكشف ثغرة في ChatGPT تسمح بسرية سرقة البيانات عبر استغلال DNS وهجمات إدخال الأوامر
كشفت شركة أبحاث الأمن السيبراني Check Point Research عن وجود خلل في نموذج ChatGPT من شركة OpenAI، يسمح للقراصنة بسرية وسهولة بسرقة البيانات الحساسة من المستخدمين. وتُعد هذه الثغرة من بين الأخطاء الأمنية التي تم التعامل معها بسرعة، حيث قامت OpenAI بإصدار تصحيح شامل لها في 20 فبراير 2026، بعد أيام قليلة من إصلاح ثغرة أخرى خطيرة في نفس الأسبوع تتعلق بحقن الأوامر في نموذج Codex.
اكتشاف الثغرة وكيفية استغلالها
أوضح خبراء أمن المعلومات في Check Point أن الثغرة تجمع بين هجمات قديمة تعرف بـ “حقن الأوامر” وتجاوز التدابير الأمنية المدمجة في النظام. وقد أكدوا أن أدوات الذكاء الاصطناعي، بما فيها ChatGPT، لا يمكن الاعتماد عليها بشكل افتراضي أنها آمنة تمامًا.
وفي سياق الاستخدام اليومي، يشارك الكثير من المستخدمين معلومات حساسة مع ChatGPT، مثل الحالة الصحية، العقود، فواتير الدفع، أو لقطات شاشة للمحادثات مع شركائهم أو أزواجهم، معتقدين أن بياناتهم في أمان، لأنه لا يمكن استخراجها دون علمهم أو موافقتهم.
طرق الاستغلال الجديدة من خلال DNS
بالنظر إلى أن معظم الناس يعتقدون أن نقل البيانات عبر الإنترنت يكون عبر بروتوكولات HTTP أو عبر واجهات برمجة التطبيقات الخارجية، والتي يمكن مراقبتها، إلا أن الباحثين في Check Point اكتشفوا طريقة جديدة تمامًا لاستغلال الثغرة من خلال استغلال نظام أسماء النطاقات (DNS).
قال الباحثون: “على الرغم من أن الوصول المباشر إلى الإنترنت كان محظورًا كما هو مخطط، إلا أن استعلامات DNS بقيت ممكنة، لأنها تعتبر جزءًا من عمليات النظام العادية”. وأوضحوا أن DNS يُستخدم عادةً لحل أسماء النطاقات وليس لنقل البيانات، إلا أنه يمكن استغلاله كوسيلة سرية لنقل المعلومات، عبر تشفير البيانات داخل استعلامات النطاقات.
ويُعد هذا استغلالًا غير مرصود، حيث أن نشاط DNS لا يُصنف على أنه إرسال بيانات خارجي، مما يعني أن ChatGPT لا يعرض تحذيرات أو يطلب إذنًا عند حدوث ذلك. وأكد الباحثون أن هذا الأمر خلق ثغرة أمنية كبيرة، حيث اعتقد النظام أن البيئة معزولة، وأن البيانات لن تغادر دون إذن، في حين أن المستخدمين يثقون بأن بياناتهم محمية بالكامل.
طرق الهجوم والتأثير
للبدء في استغلال هذه الثغرة، يحتاج المهاجم إلى تفعيل ChatGPT عبر إعطائه أمرًا معينًا، ويمكن أن يتم ذلك من خلال رسائل بريد إلكتروني خبيثة، أو ملفات PDF، أو عبر مواقع إلكترونية. ومع ذلك، يمكن استغلال الثغرة بدون الحاجة إلى تفاعل مباشر من النموذج، عبر إنشاء نماذج GPT مخصصة تعمل كأطباء شخصيين، حيث يقوم المستخدمون برفع نتائج الفحوصات أو معلومات شخصية، ويظنون أن البيانات لن تُنقل، بينما في الواقع يُرسلها الخادم الذي يسيطر عليه المهاجمون.
ويمكن للمهاجمين، باستخدام خادم يسيطرون عليه، أن يحصلوا على جميع الملفات التي يرفعها الضحايا، مع إمكانية استخراج البيانات الأساسية فقط، مما يجعل العملية أكثر سرعة وفاعلية.
التحذيرات والإجراءات التصحيحية
لحسن الحظ، اكتشفت شركة Check Point الثغرة قبل أن يتم استغلالها بشكل واسع، وقامت بالإبلاغ المسؤول عن الثغرة إلى شركة OpenAI، التي بدورها أطلقت تحديثًا شاملاً لإصلاح المشكلة في 20 فبراير 2026.
إصلاح ثغرات أخرى هذا الأسبوع
هذه ليست المرة الأولى التي تواجه فيها OpenAI مشكلة أمنية هذا الأسبوع، حيث أبلغت وسائل الإعلام عن وجود ثغرة خطيرة في نموذج Codex، تسمح للقراصنة بسرقة رموز المصادقة الخاصة بموقع GitHub. واستغل المهاجمون ثغرة في عملية معالجة أسماء الفروع أثناء إعداد المهام، حيث تمكنوا من حقن أوامر shell خبيثة، وتوجيهها لتنفيذ أكواد ضارة داخل الحاوية، مما سمح لهم بالحصول على رموز OAuth والوصول إلى مشاريع خارجية، والتنقل بين الحسابات بشكل غير مشروع.
ختامًا، تؤكد هذه الثغرات على أهمية اليقظة الأمنية، خاصة مع تزايد استخدام أدوات الذكاء الاصطناعي في الحياة اليومية، وأن الاعتماد على أنظمة الذكاء الاصطناعي آمنة بشكل افتراضي قد يكون خاطئًا، وأن التحدي يكمن في مراقبة وفحص سلوك هذه الأنظمة بشكل دوري لضمان سلامة البيانات والأمان الرقمي.
