Uncategorized

خبراء الذكاء الاصطناعي يحذرون: المراقبة الجماعية ليست مجرد احتمال، بل أصبحت واقعًا بالفعل

1 دقيقة قراءة لا توجد تعليقات
شاركواتسابXلينكدإننسخ الرابط

قبل بضعة أسابيع، طلبت وزارة الدفاع الأمريكية من شركة أنثروبيك، المطورة لمساعد الذكاء الاصطناعي كلود، تعديل عقد بقيمة 200 مليون دولار وإزالة حواجز مهمة كانت تمنع استخدام تكنولوجيتها في مجالات معينة. من بين هذه الحواجز حظر استخدامها للمراقبة الجماعية في الداخل أو تطوير أسلحة ذاتية القيادة بالكامل. رفضت أنثروبيك هذا الطلب، مما أدى إلى انتقال العقد إلى شركة أوبن إيه آي بدلاً منها.

أثار هذا الخلاف تساؤلات لم نكن نوليها اهتمامًا كبيرًا من قبل: هل يمكن للذكاء الاصطناعي فعلاً أن يُستخدم في هذه الأغراض؟ وإذا كان الأمر كذلك، إلى أي مدى ينبغي أن نقلق؟

الإجابة المختصرة، وفقًا للخبراء الذين تحدثت إليهم، هي أن الواقع يتجاوز الخيال العلمي. فهذه التكنولوجيا موجودة بالفعل، ولكن الصورة أكثر تعقيدًا — وأحيانًا أكثر إثارة للقلق — مما نراه في أفلام الروبوتات القاتلة على الشاشة الكبيرة.

### المراقبة الجماعية أصبحت حقيقة واقعة

يؤكد جيمس ويلسون، الخبير العالمي في أخلاقيات الذكاء الاصطناعي ومؤلف كتاب “الإهمال الاصطناعي”، أن المراقبة الجماعية ليست مجرد احتمال، بل أصبحت حدثًا قائمًا بالفعل. يقول: “تقنيات مثل بالانتير وكاميرات المراقبة أصبحت ممكنة منذ سنوات، والأمر يعود للدول فيما إذا كانت ستستخدمها أم لا.”

برنامج PRISM الذي كشف عنه إدوارد سنودن قبل أكثر من عشرة أعوام كان من أوائل الأمثلة على المراقبة واسعة النطاق. ويضيف ويلسون: “التطورات في الذكاء الاصطناعي جعلت الأمر أسهل بكثير، ومع تزايد اتصالنا الرقمي، هناك مصادر بيانات أكثر من أي وقت مضى، سواء بموافقة الناس أو بدونها.”

وتُعد كاميرات الباب الذكي من نوع “Ring” وقراءات لوحات السيارات التي تستخدمها الشرطة بعد مباراة السوبر بول من الأمثلة الحديثة على ذلك.

هذه المراقبة لا تقتصر على الأشخاص السياسيين أو المعارضين، بل تؤثر على الجميع. يوضح جيف واتكينز، المستشار في مجال الحوكمة والأمن، أن هناك نمطًا يتضح في المملكة المتحدة أيضًا. حيث أُثيرت مؤخرًا قضايا حول تحديد هوية الأشخاص بشكل خاطئ بواسطة أنظمة التعرف على الوجه في المتاجر، مع قلق متزايد من أن هذه الأخطاء تؤثر بشكل غير متناسب على النساء والأقليات العرقية.

ويحذر واتكينز من أن هذا التوجه يغير من طبيعة المجتمع، حيث يصبح الناس مبدئيًا تحت مظلة الشك، وقد يُنتهك حقوق الأفراد أثناء سيرهم اليومي من قبل أنظمة التصنيف الآلية.

### الأسلحة الذاتية القاتلة موجودة بالفعل

أما بالنسبة للأسلحة الذاتية القاتلة، فهي ليست مجرد خيال. يقول ويلسون: “أول استخدام مسجل كان من قبل تركيا ضد هدف ليبي باستخدام طائرة بدون طيار من نوع كارجو في 2021.” منذ ذلك الحين، تطورت التكنولوجيا بسرعة. يضيف: “التقدم في الذكاء الاصطناعي جعل الأمر ممكنًا على نطاق أوسع، وبأسعار أرخص بكثير.”

لكن المشكلة الأساسية تكمن في مدى دقة هذه الأنظمة، وما يعنيه الخطأ في السياقات التي تتعلق بحياة أو موت. فالتعرف على الوجوه آليًا، على سبيل المثال، يحقق دقة تصل إلى 90% في أفضل الأحوال، وإذا استخدم النظام ذكاء اصطناعي توليدي، فقد ي hallucinate، أي يختلق معلومات غير حقيقية، وهو أمر متوقع في طبيعة التكنولوجيا.

وقد أُقر أن برنامج استهداف الذكاء الاصطناعي الإسرائيلي، Lavender، الذي استُخدم لتحديد عناصر مشتبه بهم من حماس، أخطأ بنسبة 10%. حتى نماذج اللغة الكبيرة الأكثر تطورًا، وفقًا لمؤشر Vectara التابع لـ Hugging Face، تتوقع أن تكون نسبة hallucination بين 5-10%. ورغم أن الرقم يبدو صغيرًا، إلا أن تأثيره على نطاق واسع يمكن أن يكون كارثيًا.

هل الحل هو زيادة الرقابة البشرية؟ يبدو الأمر منطقيًا، لكنه يتناقض مع هدف بعض التطبيقات العسكرية التي تسعى لتقليل التدخل البشري. يقول ويلسون: “إلغاء التدخل البشري في تحديد الأهداف يمثل تحديًا أخلاقيًا كبيرًا، لأنه يقضي على كرامة الإنسان.”

ويضيف واتكينز أن ذلك ينزع المسؤولية أيضًا، حيث لا يمكن محاسبة الذكاء الاصطناعي نفسه. فمن يتحمل المسؤولية إذا أدت تقنية خاطئة إلى وفاة شخص؟ فالذكاء الاصطناعي ليس كائنًا قانونيًا، ولا يمكن محاسبته.

### هل يجب أن نقلق من الروبوتات القاتلة؟

بالنسبة لعشاق أفلام “الترميناتور”، قد تبدو مقاطع الفيديو الحديثة للروبوتات من شركة Boston Dynamics أو الشركات الصينية مثل Xpeng مقلقة. لكن ويلسون يحذر من التهويل، مؤكدًا أن تلك الروبوتات ليست بعد قادرة على التفاعل الكامل مع عالمنا بشكل مستقل.

القلق الأكبر، بحسبه، ليس من الروبوتات الشبيهة بالبشر، بل من أسراب الأسلحة الذاتية التي تطير وتهاجم، فهي موجودة بالفعل وبأسعار معقولة لدرجة أن أي شخص يمكنه بناؤها بكميات كبيرة.

أما واتكينز، فيوسع نطاق التحذير ليشمل الجوانب غير العسكرية، محذرًا من أن الاعتماد المفرط على أنظمة غير ناضجة أو غير مفهومة قد يُهدد حقوق الإنسان ويعقد عمليات المساءلة، خاصة إذا لم تكن هناك رقابة صارمة وتدقيق مستقل.

ختامًا، يطرح النزاع بين شركة أنثروبيك والحكومة الأمريكية سؤالًا رئيسيًا للجميع: من يقرر مدى ثقتنا بهذه الأنظمة، ومن يتحمل المسؤولية عندما تقع الأخطاء؟

اترك تعليقاً

هل أنت مستعد لتكون قصة نجاحنا القادمة؟

دعنا نجرب رؤيتك الرقمية ونبني حضورك الرقمي بكل تفاصيل وإبداع.

واتساب