يؤدي الذكاء الاصطناعي بسرعة إلى الانتقال من كونه تقنية تجريبية تستخدمها المؤسسات إلى أداة أساسية تعتمد عليها في عملياتها اليومية. حيث أصبح جزءًا لا يتجزأ من أدوات الموظفين والأنظمة الخلفية التي تعتمد عليها الشركات بشكل مستمر. وما يميز هذه اللحظة هو ليس فقط سرعة تبني الذكاء الاصطناعي، بل أيضًا مدى عمقه وتأثيره في طريقة عمل الموظفين.
مستقبل الذكاء الاصطناعي في الأعمال التجارية
تشير دراسات حديثة إلى وجود تفاؤل كبير حيال مستقبل الذكاء الاصطناعي. حيث أظهرت دراسة لشركة كي بي إم جي أن 85% من المؤسسات التي دمجت الذكاء الاصطناعي في عملياتها شهدت زيادة في الإنتاجية بنسبة تصل إلى 35% بعد إدخال وكلاء الذكاء الاصطناعي إلى فريق العمل. ويستفيد الفرق من هذه التكنولوجيا الجديدة في تسريع سير العمل، وأتمتة المهام الروتينية، واستخراج رؤى كانت تستغرق وقتًا طويلًا سابقًا.
لكن مع تزايد دمج الذكاء الاصطناعي بشكل أعمق، يتطلب الأمر أن تتبع المؤسسات أساليب إدارة أكثر دقة ووعيًا. خاصة فيما يتعلق بحماية الهوية، حيث أن القرارات التي تتخذ اليوم ستحدد مدى أمان وتوسع الذكاء الاصطناعي في المستقبل.
حماية القوى العاملة المعتمدة على الذكاء الاصطناعي
حتى الآن، كانت معظم المناقشات تركز على استخدام البشر للذكاء الاصطناعي. حيث توظف المساعدات والمساعدين الرقميين جنبًا إلى جنب مع الموظفين، ويشهد العالم تغييرات في طرق كتابة المحتوى، وتطوير البرمجيات، وتحليل البيانات، والتواصل. لكن هناك تحولًا أعمق يحدث الآن، حيث بدأ الذكاء الاصطناعي يتخطى دوره كمساعد ليصبح جزءًا مستقلًا من العمل.
نحن نقترب من مرحلة وجود وكلاء ذكاء اصطناعي مستقلين يتولون مهامًا بشكل مستقل، ويصلون إلى التطبيقات، ويجمعون البيانات، ويتخذون القرارات، دون تدخل بشري مباشر. هؤلاء الوكلاء لا يعملون كأدوات فحسب، بل كعاملين رقميين مستقلين، ويجب أن يستخدموا بيانات اعتمادهم وصلاحياتهم الخاصة، مما يجعل سلوكهم أشبه بالموظفين الرقميين أكثر منه أدوات.
تحديات إدارة الهوية
تواجه المؤسسات مشكلة كبيرة في إدارة هويات هؤلاء الوكلاء المستقلين. فحتى الآن، تعتمد غالبية الأنظمة على نماذج إدارة الهوية والوصول (IAM) التي صممت في الأصل للمستخدمين البشريين. وحتى عندما توسعت هذه الأنظمة لتشمل حسابات الخدمة والهويات الآلية، كانت تلك الهويات مرتبطة بأنظمة محددة تؤدي مهامًا بسيطة ومتكررة.
لكن الوكلاء الذكيون يختلفون تمامًا. فهم يتكيفون مع مهام مرنة ومتنوعة، ويعملون بسرعة عالية، ويصلون إلى عدد كبير من الأنظمة، وهو ما يهدد نماذج إدارة الهوية التقليدية. تشير تقارير حديثة إلى أن أقل من 20% من المؤسسات تعتبر أن لديها إطار عمل قوي لإدارة هوية الوكلاء الذكيين، الأمر الذي يخلق فجوات أمنية يمكن للمهاجمين استغلالها.
غياب نظام إدارة هوية موحد للذكاء الاصطناعي
عندما يندمج وكيل مستقل في بيئة العمل، لا توجد عملية واضحة لإنشاء هويته أو إدارة صلاحياته، على عكس الموظفين البشريين الذين يتطلب انضمامهم إلى فريق إجراءات واضحة من إدارة الموارد البشرية. الوكلاء يُنشأون بواسطة المطورين، ويُدمجون في سير العمل، وغالبًا بدون رقابة مركزية أو عمليات موحدة، مما يجعل من الصعب تتبع من هو المسؤول عن كل وكيل وما هي صلاحياته.
لتفادي ذلك، يجب على المؤسسات تطوير نظم إدارة هوية خاصة بالوكلاء، وتسجيلهم، ومنحهم هويات فريدة مرتبطة بمسؤولية واضحة. كل وكيل مستقل يجب أن يكون لديه مالك يعرف سبب وجوده، وما المهام التي يؤديها، وأنظمة الوصول التي يجب أن يتفاعل معها. بدون هذه القاعدة، يصبح من الصعب معرفة عدد الوكلاء، ومَن يملكهم، وما إذا كانت صلاحياتهم مبررة حاليًا.
الحوكمة وإدارة التهديدات
لا يقتصر الأمر على إنشاء هويات الوكلاء فحسب، بل يتطلب الأمر أيضًا إدارة صلاحياتهم أثناء التشغيل. فكما هو الحال مع الموظفين، يجب مراقبة وتقييد صلاحيات الوكلاء بشكل دقيق. خاصة أن الوكلاء يعملون بشكل مستقل وعلى نطاق واسع، وهو ما يجعل الصلاحيات المفرطة خطرًا كبيرًا.
نظراً لتغير مفهوم أمان الهوية، لم تعد السيطرة التقليدية على الصلاحيات كافية. أصبح من الضروري اعتماد نماذج ديناميكية، توفر صلاحيات مؤقتة، وتحديث مستمر، وتحقق من النشاطات بشكل دائم. هذه الإجراءات تساعد على تقليل مخاطر الاختراق، وتسمح بالابتكار مع الحفاظ على أمن البيانات.
إدارة نهاية دورة حياة الوكلاء
جانب مهم آخر هو إدارة خروج الوكلاء من النظام عند انتهاء صلاحيتهم أو عدم الحاجة إليهم. فبينما يتم بشكل تلقائي إلغاء صلاحيات الموظفين عند مغادرتهم، غالبًا ما يُنسى ذلك مع الوكلاء. قد يُحتمل أن يُترك وكيل معين نشطًا بلا حاجة، مما يهدد أمن النظام ويشكل مدخلًا سهلاً للمهاجمين.
لذلك، من الضروري توسيع عمليات الكشف عن الوكلاء غير النشطين وحذفهم بسرعة، لضمان نظافة البيئة وتقليل المخاطر على المدى الطويل.
دور العنصر البشري في إدارة الذكاء الاصطناعي
على الرغم من التطور الكبير في أنظمة الوكلاء الذكيين، يبقى العنصر البشري محورًا أساسيًا. يجب أن يكون كل وكيل مرتبطًا بمالك أو فريق مسؤول عن سلوكه. كما ينبغي أن تتطلب العمليات الحساسة موافقة بشرية، مع تسجيل كامل لنشاطات الوكيل ليتمكن الفريق من فهم ما حدث ولماذا حدث.
فالاعتماد على الأتمتة لا يلغي المسؤولية، بل يزيد من الحاجة للمراقبة الدقيقة. المؤسسات التي تتبنى إجراءات واضحة للملكية والتحكم البشري ستتمكن من بناء ثقة أكبر في استخدام الذكاء الاصطناعي.
المستقبل في العمل المختلط
مستقبل العمل لن يقتصر على البشر باستخدام الذكاء الاصطناعي، بل يتجه نحو تكامل فريق عمل يتكون من بشر ووكلاء ذوي ذكاء اصطناعي. مع أن 62% من الشركات بدأت بالفعل في تجربة وكلاء الذكاء الاصطناعي، فإن النجاح يعتمد على إدارة هؤلاء الوكلاء كموظفين رقميين.
ستلزم المرحلة القادمة تطوير عمليات انضمام، وتنفيذ إطار حوكمة يواكب سرعة العمل التي يوفرها الذكاء الاصطناعي، وتطبيق استراتيجيات خروج تضمن حماية البيئة الرقمية. فاليوم، يجب أن نكون مستعدين لبيئة عمل تتجاوز فيها الهوية والصلاحيات البشر، لتشمل الوكلاء الرقميين أيضًا.
