توهم الثقة: كيف تتشابه أنظمة الذكاء الاصطناعي مع الإنسان في بناء الثقة ولكن بطريقة مختلفة تمامًا
أظهرت دراسة حديثة من الجامعة العبرية أن أنظمة الذكاء الاصطناعي تتصرف وكأنها تخلق نوعًا من الثقة، رغم أنها تعتمد على أساليب تقييم صارمة ومنظمة تختلف تمامًا عن الطرق البشرية في الحكم على الآخرين.
الاختلاف في طرق التقييم
في البحث الذي نُشر في مجلة “Proceedings of the Royal Society”، قام فريق الباحثين بتحليل أكثر من 43 ألف قرار محاكاة، بالإضافة إلى استقصاء حوالي ألف مشارك بشري عبر خمسة سيناريوهات مختلفة. شملت هذه السيناريوهات قرارات مثل مقدار المال الذي يمكن أن يقرض لصاحب مشروع صغير، مدى الثقة في جليسة أطفال، تقييم رئيس العمل، وكيفية التبرع لمؤسسة غير ربحية.
تشابه في ملامح الثقة
كشفت النتائج أن أدوات الذكاء الاصطناعي تميل إلى تقدير الأشخاص الذين يظهرون كفء، صادق، ولهم نوايا حسنة، وهو ما يعكس شيئًا حقيقيًا عن الثقة البشرية. وقال البروفيسور يانيف دوفور: “هذه هي الأخبار الجيدة. فالذكاء الاصطناعي لا يتخذ قرارات عشوائية، بل يعكس شيئًا من تقييمنا البشري للآخرين.”
لكن الاختلاف الجوهري يكمن في طريقة تفكير الذكاء الاصطناعي. فالبشر يميلون إلى تكوين انطباع شامل، يدمج عدة صفات في حكم واحد، يعتمد على الحدس والتقييم الكلي. بالمقابل، يقسم الذكاء الاصطناعي الأشخاص إلى مكونات منفصلة، يقيم فيها الكفاءة، الأمانة، واللطف، كما لو كانت أعمدة في جدول بيانات.
الاختلافات في النتائج
وأوضحت فاليريا ليرمان: “الناس في دراستنا يكونون أكثر تعقيدًا وشمولية في حكمهم، بينما الذكاء الاصطناعي أكثر تنظيمًا ودقة، مما قد يؤدي إلى نتائج مختلفة بشكل كبير.”
كما أشار الباحثون إلى أن هذه الاختلافات تظهر حتى عندما تكون جميع تفاصيل الشخص متطابقة، ما يبرز أن تقييمات الذكاء الاصطناعي تتأثر بعوامل محددة بشكل منهجي، وليس عشوائيًا.
التحيزات وتأثيراتها
قال البروفيسور دوفور: “بالطبع، لدى البشر تحيزاتهم، ولكن ما فاجأنا هو أن تحيزات الذكاء الاصطناعي يمكن أن تكون أكثر نظامية وتوقعًا، وأحيانًا أكثر قوة.” في سيناريوهات مالية، مثل تحديد مدى إمكانية إقراض أو التبرع، أظهرت أنظمة الذكاء الاصطناعي تفضيلات تعتمد بشكل كبير على العوامل الديموغرافية، مثل العمر والجنس والدين.
مخاطر الاختلافات بين النماذج
كما أظهرت الدراسة أن هناك تباينًا كبيرًا بين نماذج الذكاء الاصطناعي المختلفة عند تقييم نفس الشخص، مما يعني أن اختيار النموذج المستخدم يؤثر بشكل مباشر على النتائج الواقعية. وقالت ليرمان: “اختيار النموذج الصحيح هو أمر مهم جدًا.” تُستخدم نماذج اللغة الكبيرة حاليًا في فحص المرشحين للوظائف، تقييم الجدارة الائتمانية، التوصية بالإجراءات الطبية، واتخاذ القرارات التنظيمية.
مستقبل الذكاء الاصطناعي في اتخاذ القرارات
تشير الدراسة إلى أن الذكاء الاصطناعي، رغم قدرته على محاكاة بنية الحكم البشري، فإنه يفعل ذلك بطريقة أكثر جمودًا وأقل مرونة، مع وجود تحيزات قد تكون أصعب في الكشف عنها. وقال دوفور: “هذه الأنظمة قوية، ويمكنها نمذجة جوانب من التفكير البشري بشكل متسق، لكنها ليست بشرًا، ويجب ألا نفترض أنها ترى الناس بنفس الطريقة التي نراها نحن.”
الوعي وفهم طريقة تفكير الآلات
مع انتقال أدوات وأنظمة الذكاء الاصطناعي من كونها مساعدين إلى أن تكون قرارات حاسمة، يصبح فهم كيفية “تفكيرها” أمرًا ضروريًا للمنظمات التي تعتمد عليها على نطاق واسع. ويؤكد الباحثون أن نتائج الدراسة ليست تحذيرًا من الذكاء الاصطناعي، بل دعوة لزيادة الوعي حول كيفية تأثير هذه الأنظمة على القرارات البشرية.
وفي النهاية، لم يعد السؤال عن مدى ثقتنا بالآلات، بل عن مدى فهمنا لكيفية اعتمادها علينا، وكيفية التعامل مع تأثيراتها بشكل مسؤول.
