أثارت دراسة حديثة أجرتها "شركة "إن تي تي داتا" (NTT DATA)، المتخصصة في التكنولوجيا والخدمات الرقمية، جدلًا واسعًا بشأن "أزمة المسؤولية في الذكاء الاصطناعي".
ففي حين تتسابق الشركات للاستفادة من هذه التقنية المتطورة، يجد المسؤولون التنفيذيون أنفسهم أمام "تحديات أخلاقية وتنظيمية معقدة" قد تعرقل الاستثمار والابتكار.
ويشير التقرير إلى أن "81 بالمئة من قادة الأعمال" يعتقدون أن هناك حاجة إلى "قيادة أكثر وضوحًا"لتوجيه استخدام الذكاء الاصطناعي بشكل مسؤول.
ومع تسارع التطورات، تظهر فجوة واضحة بين "التقدم التكنولوجي" والقدرة على "تنظيمه والتحكم به"، مما يضع الاستثمارات والأمان العام في دائرة الخطر، حسب الدراسة.
أبرز التحديات
تضارب الأولويات في مجالس الإدارة، فهناك انقسام واضح بين قادة الأعمال؛ حيث يرى ثلثهم أن "المسؤولية الأخلاقية أهم من الابتكار"، بينما يعتقد ثلث آخر أن "الابتكار يجب أن يأتي أولًا حتى لو كان على حساب الأمان"، أما الثلث المتبقي فيرى ضرورة "تحقيق توازن بين الاثنين".
-غموض القوانين يعيق التقدم : يشعر"80 بالمئة من قادة الشركات أن القوانين المنظمة للذكاء الاصطناعي غير واضحة، مما يجعلهم"مترددين في الاستثمار في هذه التقنية خوفًا من المساءلة القانونية مستقبلاً.
-الأمن والشفافية في خطر : رغم أن"89 بالمئة من القادة يعبرون عن قلقهم بشأن"أمان الذكاء الاصطناعي، إلا أن"24بالمئة فقط من مسؤولي الأمن المعلوماتي يعتقدون أن شركاتهم تمتلك"إطارًا قويًا لضمان استخدام آمن ومسؤول لهذه التكنولوجيا.
-غياب المهارات اللازمة : كشف التقرير أن"67 بالمئة من الموظفين يفتقرون إلى"المهارات الكافية للتعامل مع الذكاء الاصطناعي، بينما"72بالمئة من الشركات لا تمتلك سياسات واضحة لاستخدامه بشكل مسؤول".
-تأثير بيئي مقلق: يرى"75بالمئة من القادة أن الذكاء الاصطناعي"قد يعيق أهداف الاستدامة بسبب استهلاكه الكبير للطاقة، مما يستدعي البحث عن"حلول صديقة للبيئة.
ما الحل؟
لضمان "مستقبل مستدام للذكاء الاصطناعي"، دعا التقرير إلى "إجراءات حاسمة"، منها:
تصميم مسؤول: يجب أن يتم "تطوير تقنيات الذكاء الاصطناعي وفق معايير واضحة للشفافية والأمان" منذ البداية.
حوكمة فعالة: ينبغي أن تتجاوز الشركات "الالتزام بالقوانين فقط"، لتشمل أيضًا "المعايير الأخلاقية والاجتماعية".
تأهيل القوى العاملة: فلا بد من "تدريب الموظفين" على التعامل مع الذكاء الاصطناعي بشكل مسؤول، وتقليل المخاطر المحتملة.
التعاون الدولي: تحتاج الحكومات والشركات إلى "التنسيق لوضع أطر قانونية وتنظيمية واضحة" لضمان الاستخدام الآمن والفعال للذكاء الاصطناعي عالميًا.
من جانبه قال "، الرئيس التنفيذي لشركة "إن تي تي داتا"، أبهيجيت دوبي في ختام التقرير:
"المستقبل واضح – الذكاء الاصطناعي سيواصل تطوره وتأثيره. لكن بدون قيادة مسؤولة، قد نجد أنفسنا أمام عالم يتفوق فيه الابتكار على الأخلاق، مما يؤدي إلى مخاطر أمنية ونقاط عمياء أخلاقية وفرص ضائعة".
وتابع: يجب على الشركات أن تبدأ الآن في بناء إطار مسؤول يضمن أن يكون الذكاء الاصطناعي أداة للتقدم، لا مصدرًا للمخاطر."
