الحكومة الأميركية اتخذت بدأت تنظيم قطاع الذكاء الاصطناعي
الحكومة الأميركية اتخذت بدأت تنظيم قطاع الذكاء الاصطناعي

تثير أنظمة الذكاء الاصطناعي مخاوف من تطورها السريع، وأسئلة عن مدى سلامتها وآثارها الاجتماعية، وهو ما بدأ يختبر قدرة الحكومات على كبح أي "خروج عن السيطرة".

وينقل موقع "VOX" أنه رغم التطور السريع، لايزال بالإمكان القيام بإجراءات لمنع شركات التكنولوجيا من إطلاق أنظمة محفوفة بالمخاطر.

وقدم معهد الذكاء الاصطناعي ناو، وهو مركز أبحاث يدرس الآثار الاجتماعية للذكاء الاصطناعي "خارطة طريق" يمكن لصانعي السياسات الاعتماد عليها للتأكد من سلامة هذه الأنظمة.

ويقول التقرير إن شركات التكنولوجيا باتت تتمتع بسلطة كبيرة وموارد هائلة وتطلق الأنظمة متى تشاء، لذلك حان الوقت لاستعادة السلطة من الشركات، ويوصي ببعض الاستراتيجيات للقيام بذلك.

وينصح التقرير بتحميل مسؤولية أي ضرر في هذه الأنظمة للشركات المنتجة نفسها، وكما هو مفروض على صانع الأدوية أن يثبت لإدارة الغذاء والدواء أن الدواء الجديد آمن بما يكفي لطرحه في السوق، يجب على شركات التكنولوجيا إثبات أن أنظمتها آمنة قبل إطلاقها.

وحض الرئيس الأميركي، جو بايدن، الكونغرس على تمرير قوانين تضع قيودا صارمة على شركات التكنولوجيا الضخمة، لكن فرصة إحراز أي تقدم تبدو ضئيلة في ظل الانقسامات السياسية بين المشرعين.

ويشير أصحاب التقرير إلى أن السلطات يجب أن تمنع أنظمة الذكاء الاصطناعي التي يتم التأكد أنها غير صالحة بدل العمل على إصلاحها.

ويمكن للمشرعين أيضا الحد من جمع البيانات من قبل بعض أنظمة الذكاء الاصطناعي للحد من خطورتها، وفق التقرير.

وأدى افتقار الولايات المتحدة للتشريعات اللازمة إلى إعطاء سيليكون فالي حرية طرح منتجات جديدة مثل الذكاء الاصطناعي من دون التحقق من تأثيرها على المجتمع وقبل أن تتمكن الحكومة من وضع القوانين اللازمة.

وفي نهاية المطاف، يقول التقرير إن البشر يتحكمون في التقنيات التي ننشرها ومتى، لذلك يجب التحكم في بعض التقنيات كما كان الحال مع تقنية التعرف على الوجه، وتقنيات أخرى في مجال علم الوراثة.

ويخلص التقرير إلى أنه "لا يوجد شيء لا مفر منه بشأن الذكاء الاصطناعي"، لذلك فهو مجال يمكن السيطرة عليه إن "توقفنا عن النظر إليه كمرادف للتقدم".

والثلاثاء، اتخذت الحكومة الأميركية خطوة أولى نحو تنظيم قطاع الذكاء الاصطناعي تتيح للبيت الأبيض وضع كوابح على التقنيات الجديدة مثل "تشات جي بي تي".

ووجهت وزارة التجارة الأميركية دعوة للجهات الفاعلة في هذا القطاع لتقديم مساهمات لإدارة بايدن من أجل إعداد تصور حول أنظمة خاصة بالذكاء الاصطناعي.

وطلبت شركة "أوبن إيه آي" إخضاع أنظمة الذكاء الاصطناعي الخاصة بها إلى "تقييمات سلامة صارمة"، مشيرة إلى الحاجة لتنظيم شامل. 

أوبن إيه آي
تصريحات لايكي جاءت قبل انعقاد قمة الذكاء الاصطناعي العالمية بكوريا الجنوبية

استقال جان لايكي، وهو باحث رئيسي في مجال السلامة في شركة "أوبن إيه آي"، بعد أيام قليلة من إطلاق أحدث نموذج للذكاء الاصطناعي "تشات جي بي تي GPT-4o"، وذلك وفقا لتقرير نشرته صحيفة "غارديان" البريطانية.

وكشف لايكي عن سبب استقالته في تدوينة نشرها على منصة "إكس"، زاعما أن شركته السابقة "تعطي تعطي الأولوية للمنتجات اللامعة" على حساب السلامة والموثوقية.

ومصطلح المنتجات اللامعة "shiny products" في مجال التكنولوجيا والذكاء الاصطناعي يشير إلى المنتجات أو الأدوات التي تتميز بجاذبيتها البصرية أو التقنية، لكن قد لا تكون لديها فائدة عملية كبيرة أو لا تحل مشكلة حقيقية بفعالية.

وتلك "المنتجات اللامعة" غالباً ما تكون مصممة لإبهار المستخدمين بميزات متقدمة أو تصميم جذاب، لكنها قد تفتقر إلى العمق أو الأداء الملائم للاحتياجات الفعلية للمستخدمين.

وكان لايكي باحثًا رئيسيًا في مجال السلامة في شركة "OpenAI"، حيث شغل منصب رئيس مشارك لقسم المحاذاة الفائقة، مما يضمن التزام أنظمة الذكاء الاصطناعي القوية بالقيم والأهداف الإنسانية.

وجاءت تصريحاته قبل قمة الذكاء الاصطناعي العالمية في العاصمة الكورية الجنوبية، سيول، الأسبوع المقبل، حيث سيناقش السياسيون والخبراء والمديرون التنفيذيون في مجال التكنولوجيا، الرقابة على التكنولوجيا.

وأوضح لايكي في منشوره أنه على مدى الأعوام المنصرمة، "تراجعت ثقافة وعمليات السلامة" في مقابل "المنتجات اللامعة"، مشددا على أنه كان يختلف مع قيادة "أوبن إيه آي" حول أولويات الشركة لبعض الوقت، لكن هذه المواجهة وصلت أخيرا إلى "نقطة الانهيار"، على حد تعبيره.

وقال: "إن الشركة، التي طورت أيضًا مولد الصور Dall-E ومولد الفيديو Sora، يجب أن تستثمر المزيد من الموارد في قضايا مثل السلامة والتأثير الاجتماعي والسرية والأمن للجيل القادم من النماذج".

وتابع: "على مدى السنوات الماضية، تراجعت ثقافة وعمليات السلامة إلى المنتجات اللامعة".

ونوه لايكي إلى أنه من الصعب جدًا حل هذه المشكلات بشكل صحيح، معربا عن قلقه من "أننا لا نسير على الطريق الصحيح"، مشددا على أن الأمر أصبح "أصعب فأصعب" بالنسبة لفريقه لإجراء أبحاثه.

وأشار إلى أن "بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته، وبالتالي تتحمل (أوبن إيه آي) مسؤولية هائلة نيابة عن البشرية جمعاء.. ويجب عليها أن تصبح شركة للسلامة أولًا".

أكبر شركة إماراتية تضيف مراقبا "مدعوما بالذكاء الاصطناعي"
أضافت شركة أبو ظبي العالمية القابضة، مراقبا مدعوما بالذكاء الاصطناعي إلى مجلس إدارتها، في خطوة تقول الشركة التي تبلغ قيمتها 238 مليار دولار، إنها ستساعد أعضاء مجلس الإدارة من البشر على اتخاذ قرارات استراتيجية أفضل، وفق "بلومبيرغ".

في المقابل، رد الرئيس التنفيذي للشركة، سام ألتمان، على تصريحات لايكي بشكره على مساهماته في ثقافة السلامة في الشركة.

وأضاف في تدوينة: "إنه على حق، لدينا الكثير لنفعله.. نحن ملتزمون بالقيام بذلك".