1 دقيقة قراءة Uncategorized

“كوبيلوت لأغراض الترفيه فقط”: حتى الشروط والأحكام الرسمية لشركة مايكروسوفت تشير إلى أنه لا يُنصح باستخدام الذكاء الاصطناعي الخاص بها في مكان العمل.

أوضحت شركة مايكروسوفت مؤخرًا الشروط والأحكام المرتبطة بأداة Copilot، حيث نقلت المسؤولية بشكل أكبر إلى المستخدمين. على الرغم من أن الشركة تؤكد أن الأداة مخصصة لأغراض “الترفيه فقط”، إلا أنها لا تزال تُسوق بشكل كبير للموظفين والشركات. في تحول مهم، أَكدت مايكروسوفت أن Copilot ينبغي أن يُستخدم كمرحلة أولى للتحقق من المعلومات، وليس كمصدر موثوق نهائي، خاصة عند التعامل مع البيانات المهمة.

وأشارت الشركة إلى أن الأداة قد ترتكب أخطاء أو لا تعمل دائمًا كما هو متوقع، موضحة: “لا تعتمد على Copilot في القرارات المهمة، واستخدمها على مسؤوليتك الخاصة.” رغم رغبة مايكروسوفت في استمرار الشركات والموظفين في الاعتماد على Copilot في بيئة العمل، إلا أن المسؤولية أصبحت الآن تقع بشكل أكبر على عاتق المستخدم، مما يبرئ الشركة من أي ادعاءات تتعلق بالمعلومات غير الصحيحة أو المضللة.

وفي سياق مشابه، تعترف مايكروسوفت بشكل غير مباشر بمخاطر هلوسة الذكاء الاصطناعي، خاصة في ظل المخاوف المستمرة حول حقوق النشر، غموض حقوق الملكية الفكرية، وموثوقية المخرجات. وتؤكد الشركة على أن المستخدمين يجب أن يعتبروا Copilot أداة مساعدة، وليس قرارًا نهائيًا، مع ضرورة التحقق المستقل من النتائج والحذر عند التعامل مع البيانات الحساسة أو المحمية.

كما أضافت الشركة أن المستخدمين يوافقون على تعويضها وحمايتها من أي مطالبات أو خسائر قد تنجم عن استخدامهم للأداة، مشيرة إلى أن البيانات المدخلة قد تُستخدم لتحسين خدمات Copilot، مع وجود إجراءات حماية إضافية للنسخ التجارية من الأداة لضمان سرية المعلومات الحساسة. ومع ذلك، يظل للمستخدمين حقوق على بياناتهم، بينما تحتفظ مايكروسوفت بحق استخدام البيانات لتحسين الخدمة.

وفي إطار جهودها، تؤكد مايكروسوفت أن prompts (المدخلات) والاستجابات قد تُستخدم لتحسين أداء أداة Copilot، لكن النسخ المؤسسية توفر حماية إضافية للمعلومات الحساسة. مع ذلك، فإن الانتقال من تحميل المسؤولية على الشركة إلى المستخدمين يعكس محاولة الصناعة بشكل عام فهم المخاطر القانونية المحتملة، خاصة مع استمرار بيع أدوات Copilot للشركات والأفراد.

وفي النهاية، هذه التعديلات في الشروط ليست إلا إعادة صياغة للعبارات، وليس تغييرا جذريا في سلوك الشركات الكبرى مثل OpenAI، Google، وAnthropic، التي تضع أيضًا إرشادات مماثلة تتعلق بمسؤولية المستخدمين وعدم ضمان دقة النتائج.

المصدر:
Latest from TechRadar


اترك تعليقاً

هل أنت مستعد لتكون قصة نجاحنا القادمة؟

دعنا نجرب رؤيتك الرقمية ونبني حضورك الرقمي بكل تفاصيل وإبداع.

واتساب