مخاوف من سباقات خارج نطاق السيطرة في الذكاء الاصطناعي. أرشيفية
مخاوف من سباقات خارج نطاق السيطرة في الذكاء الاصطناعي. أرشيفية

وجه باحثون وقادة قطاع التكنولوجيا رسالة مفتوحة يحذرون فيها من "المخاطر الجسيمة" على المجتمع والإنسانية لأنظمة الذكاء الاصطناعي، على ما أفادت صحيفة نيويورك تايمز.

وأشارت الصحيفة إلى أن الرسالة وقع عليها أكثر من ألف شخص من الباحثين ورواد التكنولوجيا بينهم، إيلون ماسك، مؤكدين أن مطوري الذكاء الاصطناعي يخوضون "سباقات خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يمكن لأحد حتى المطورين أنفسهم من فهمها أو التنبؤ بها أو التحكم بها بشكل موثوق".

ومن بين الموقعين على الرسالة الصادرة عن معهد "فيوتشر أوف لايف" أحد مؤسسي شركة أبل، ستيف وزنياك، ورجل الأعمال، أندرو يانغ، والعالمة، راشيل برونسون.

ويشير سجل الشفافية في الاتحاد الأوروبي إن الممولين الرئيسيين لهذ المعهد غير الربحي هم مؤسسة ماسك ومجموعة فاوندرز بليدج ومقرها لندن ومؤسسة سيليكون فالي كوميونيتي.

وأكدت الرسالة أنه "يجب تطوير أنظمة الذكاء الصناعي القوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة".

وقالت الرسالة "هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والكذب؟... هل ينبغي أن نطور عقولا غير بشرية قد تفوقنا عددنا وذكاء في النهاية وتتفوق علينا وتحل محلنا؟".

وأضافت "يجب عدم تفويض مثل هذه القرارات لقادة للتكنولوجيا غير منتخبين"، داعية إلى التوقف لمدة ستة أشهر عن تطوير أنظمة أقوى من روبوت الدردشة "شات جي.بي.تي-4".

رجال الأعمال الأكاديمي، غاري ماركوس قال في تصريحات إن أنظمة الذكاء الاصطناعي "تشكل عالمنا.. لدينا عاصفة كاملة من عدم مسؤولية الشركات.. ونقص في التنظيم، وعدد كبير من الأمور المجهولة"، بحسب الصحيفة.

وفي وقت سابق من هذا الشهر، كشفت شركة "أوبن إيه.آي" المدعومة من مايكروسوفت النقاب عن الإصدار الرابع من برنامج الذكاء الصناعي "شات جي.بي.تي" الذي حاز على إعجاب المستخدمين ملايين عبر إشراكهم في محادثة شبيهة بالمحادثات البشرية ومساعدتهم على تأليف الأغاني وتلخيص الوثائق الطويلة.

وقال ماسك في وقت سابق من الشهر "الذكاء الاصطناعي يوترني بشدة". وماسك من مؤسسي شركة أوبن إيه.آي الرائدة وتستخدم شركته تسلا للسيارات الذكاء الصناعي في أنظمة القيادة الذاتية.

قدرات الذكاء الاصطناعي تثير القلق حول العالم. أرشيفية - تعبيرية
"صناعة المواد الإباحية".. "شبح موت" يهدد بإغراق "الذكاء الاصطناعي"
قد تكون "التكنولوجية المغيرة للحياة" (Life-changing technology) أو ما يعرف بـ"بالتكنولوجيا المزعزعة" (disruptive technology) تكشف عن تطورات جديدة يشهدها عالمنا، ولكن هذه التطورات لن تكون من دون ضريبة قد تطال المستخدمين والمجتمعات المختلفة.

وتأتي هذه المخاوف في وقت جذب فيه روبوت الدردشة "شات.جي.بي.تي" انتباه المشرعين الأميركيين الذين تساءلوا عن تأثيره على الأمن القومي والتعليم.

وحذرت وكالة الشرطة الأوروبية "يوروبول" الاثنين من خطر استخدام التطبيق في محاولات الخداع الإلكترونية ونشر المعلومات المضللة والجرائم الإلكترونية.

وكشفت الحكومة البريطانية النقاب عن مقترحات لوضع إطار تنظيمي "قابل للتكيف" حول الذكاء الاصطناعي.

وكلاء الذكاء الاصطناعي

في عالم يتسابق باتجاه التحول الرقمي الكامل، لم يعد الذكاء الاصطناعي خيالا علميا، بل محركا صامتا يعيد تشكيل وجودنا في العمل وفي التفاعل الاجتماعي وأنماط العيش.

 من الصوت داخل هاتفك، إلى الروبوت على خط الإنتاج، أصبح وكلاء الذكاء الاصطناعي جزءا أساسيا من حياتنا اليومية.

من هم هؤلاء الوكلاء؟ 

كيف يعملون؟ 

ولماذا التحذيرات من أننا قد نفقد السيطرة عليهم؟

وكيل الذكاء الاصطناعي

افترض أنك تستيقظ صباحا وتطلب من هاتفك ترتيب جدول أعمالك، أو أن تقودك سيارتك إلى العمل بينما تتصفح أنت كومبيوترك اللوحي، أو أن يقترح عليك تلفزيونك الذكي مشاهدة فليم يناسب مزاجك.

هذه المهام تعتمد كلها على وكلاء الذكاء الاصطناعي.

في اللغة الرقمية، وكيل الذكاء الاصطناعي هو نظام برمجي ذكي قادر على إدراك البيئة المحيطة، وتحليل البيانات، واتخاذ قرارات لتحقيق أهداف محددة، وغالبا دون تدخل بشري مباشر. 

مرة أخرى، يمكن أن يكون الوكيل مساعدا صوتيا مثل "سيري" أو "أليكسا"، أو نظام تخصيص "أو توصيات" مثل نتفليكس وأمازون، أو روبوتا صناعيا يعمل على خطوط الإنتاج.

يتفاعل بعض الوكلاء مع المحفزات الآنية، بينما يعتمد البعض الآخر على أهداف محددة أو قرارات مبنية على تعظيم الفائدة. وهناك من يتعلم باستمرار من تجاربه — ليحسن أداءه مع الوقت.

مشهد الابتكار... والقلق

يوفر الذكاء الاصطناعي إمكانات هائلة. ففي التصنيع، تعمل الروبوتات بدقة وكفاءة. في الطب، تساعد الأنظمة الذكية في التشخيص. وفي عالم الأموال، تقود أنظمة الكشف عن الاحتيال وتقدم مقترحات بشأن الاستثمارات.

يساهم وكالاء الذكاء الاصطناعي في، زيادة الإنتاجية، وتقليل التكاليف التشغيلية، ودعم اتخاذ قرارات أكثر ذكاء، وفي تقديم خدمات يمكن توسيعها وتكييفها.

لكن فوائد الوكلاء تسير يدا بيد مع مخاطر موازية. يمكن التلاعب بوكلاء الذكاء الاصطناعي أو اختراقهم. وقد يرثون الانحياز البشري بناء على بيانات غير موضوعية. ويمكن أن يؤدي الإفراط في الاعتماد على الوكلاء إلى تآكل المهارات البشرية الأساسية. 

والأسوأ، إن لم نضبطهم بشكل صحيح، قد يتصرفون بطريقة مفاجئة وربما ضارة.

تحذير الأب الروحي

"أسرع مما توقعه كثيرون،" يقول جيفري هينتون، المعروف بـ"الأب الروحي للذكاء الاصطناعي،" الحائز على جائزة نوبل، في مقابلة مع شبكة CBS News، تعبيرا عن قلقه من سرعة تطور وكلاء الذكاء الاصطناعي.

"علينا أن نبدأ الآن في التفكير بكيفية تنظيم هذه الأنظمة،" يضيف، "الخطر لا يقتصر على استبدال الوظائف، بل يشمل إمكانية أن تتجاوز قدراتنا الفكرية".

وأشار إلى هينتون إلى أن بعض أنظمة الذكاء الاصطناعي بدأت باتخاذ قرارات ذاتية دون رقابة بشرية، وذكر تطبيقات عسكرية واستخدامات مثيرة للجدل مثل اختيار الأجنة.

ويحذر هينتون من أن القوانين الخاصة بالذكاء الاصطناعي غير كافية حتى الآن، وخطيرة.

التحدي الأكبر: السيطرة

الخوف لم يعد نظريا فقط. فبعض النماذج الحالية قادرة على التعلم الذاتي وحل المشكلات بشكل مستقل ما يعقد محاولات السيطرة عليها.

وفي الحديث عن علاقتنا بالذكاء الاصطناعي، يبرز سؤال أساسي : هل يمكننا ضمان توافق هؤلاء الوكلاء مع القيم الإنسانية؟ وماذا إذا لم نتمكن من ذلك؟

تبقى المخاطر باهظة الكلفة. إذ يؤدي غياب التوافق الأخلاقي إلى مراقبات جماعية، ونشر معلومات مضللة، بما يهدد السلامة العامة والديمقراطيات في الدول الديمقراطية. 

ويزعم نقاد الآلة أن الشركات الكبرى تنشر نماذج قوية دون رقابة كافية، وتُفضل الربح على السلامة العامة.

الموازنة بين التقدم والأخلاق

وللمضي في هذا المسار، يدعو خبراء إلى تأسيس أطر تنظيمية عالمية تتضمن المبادئ الأخلاقية والشفافية والمساءلة لتطوير وكلاء الذكاء الاصطناعي.

ويرى الخبراء ألا غنى عن السياق الثقافي. ففي بعض المجتمعات، قد تلعب قيم راسخة في خلق فجوة في الوعي الرقمي. لذلك، لا يكفي التطور التقني، بل يتطلب أيضا بناء الثقة المجتمعية.

الطريق إلى الأمام

الذكاء الاصطناعي سيف ذو حدين. إنه مفتاح لحل بعض أعقد مشكلات البشرية، إذا تمت إدارته بحكمة.

ومع تزايد المخاوف بشأن استقلالية وكلاء الذكاء الاصطناعي، تصبح الحاجة لتطويرهم وتوجيههم أكثر إلحاحا.