البرامج المطورة في السعودية والإمارات قد تفتقر إلى ميزات السلامة - صورة تعبيرية.
المملكة المتحدة ستستضيف في نوفمبر أول قمة عالمية للذكاء الاصطناعي | Source: Pexels

حذر أعضاء البرلمان البريطاني، من أن التهديد المحتمل الذي يشكله الذكاء الاصطناعي على حياة الإنسان، يجب أن يكون محور أي تنظيم حكومي، وسط جهود دولية لوضع ضوابط لهذه التقنية.

وقال أعضاء لجنة العلوم والابتكار والتكنولوجيا في البرلمان البريطاني، إنه يجب على رئيس الوزراء، ريشي سوناك، معالجة التحديات التي يشكلها الذكاء الاصطناعي "قبل استضافة المملكة المتحدة" لقمة عالمية هي الأولى من نوعها، بحسب شبكة "سكاي نيوز" البريطانية.

وفي يونيو الماضي، أعلن سوناك خلال زيارة إلى واشنطن أن "المملكة المتحدة ستستضيف هذا العام أول قمة عالمية للذكاء الاصطناعي".

وقال سوناك، آنذاك، إن "للذكاء الاصطناعي إمكانيات مذهلة لتغيير حياتنا إلى الأفضل، لكن علينا أن نتأكد من أنه يطور ويُستخدم بطريقة آمنة".

وتابع رئيس الوزراء البريطاني: "على مر التاريخ اخترعنا تقنيات ثورية حديثة، وقمنا بتسخيرها لصالح خير البشرية. وهذا ما علينا القيام به مجددا".

يأتي ذلك في أعقاب تصريحات للأمين العام للأمم المتحدة، أنطونيو غوتيريش، قال فيها إن تطوير الذكاء الاصطناعي "من أجل الصالح العام" يتطلب ضوابط متجذرة في حقوق الإنسان والشفافية والمحاسبة.

وشدد الأمين العام على "الحاجة الماسة للتوصل إلى إجماع بشأن ما يجب أن تكون عليه القواعد الإرشادية" لاستخدام الذكاء الاصطناعي.

من جانبها، طالبت اللجنة البرلمانية البريطانية بمعالجة القمة لـ 12 من التحديات التي يشكلها الذكاء الاصطناعي، بهدف التوصل لمقاربة مشتركة بين الدول للحد من مخاطر هذه التقنية الحديثة. والتحديات التي ذكرتها تشمل:

التهديد الوجودي

يجب أن توفر القواعد التنظيمية حماية للأمن القومي إذا كانت التقنية تشكل تهديدا كبيرا لحياة الإنسان.

التحيز

يمكن للذكاء الاصطناعي أن يرسخ التحيزات الموجودة في المجتمع أو يقدم تحيزا جديدا.

الخصوصية

يمكن استخدام المعلومات الحساسة التابعة للأفراد أو الشركات لتدريب نماذج الذكاء الاصطناعي.

التحريف

قد تنتج نماذج اللغة الكبيرة مواد محرفة بشأن سلوك شخص ما ووجهات نظره الشخصية.

البيانات

الكمية الهائلة من البيانات اللازمة لتدريب أقوى أدوات الذكاء الاصطناعي.

قوة الحوسبة

تطوير أقوى أدوات الذكاء الاصطناعي يتطلب قوة حاسوبية هائلة.

الشفافية

غالبا ما تكافح نماذج الذكاء الاصطناعي لشرح سبب إنتاجها لنتيجة معينة، أو من أين تأتي بالمعلومات.

حقوق الطبع والنشر

النماذج التوليدية سواء كانت نصا أو صورا أو صوتا أو فيديو، تستفيد عادة من المحتوى الموجود، والذي يجب حمايته حتى لا يؤدي إلى تقويض الصناعات الإبداعية.

المسؤولية

إذا تم استخدام أدوات الذكاء الاصطناعي لإلحاق الضرر، فيجب أن تحدد السياسة ما إذا كان المطورون أو مقدمو الخدمة مسؤولين أم لا.

التوظيف

يجب على السياسيين أن يتوقعوا التأثير المحتمل الذي سيخلفه تبني الذكاء الاصطناعي على الوظائف الحالية.

الانفتاح

يمكن جعل الكود الحاسوبي وراء نماذج الذكاء الاصطناعي متاحا بشكل مفتوح، للسماح بتنظيم أكثر موثوقية وتعزيز الشفافية والابتكار.

التنسيق الدولي

إن تطوير أي تنظيم يجب أن يكون مهمة دولية، ويجب أن ترحب قمة نوفمبر "بأكبر عدد ممكن من البلدان".

مخاوف من الأضرار التي قد تسببها التقنيات العصبية بدون ضوابط
مخاوف من الأضرار التي قد تسببها التقنيات العصبية بدون ضوابط

حذرت الأمم المتحدة، الأربعاء، من المخاطر "غير المسبوقة" التي تشكلها التقنيات العصبية على خصوصية الأفراد واستقلاليتهم، رغم "إمكانياتها الهائلة" في الطب والاتصالات والبحوث.

وفي كلمتها أمام مجلس حقوق الإنسان في دورته الـ58، قالت آنا نوغريس، مقررة الأمم المتحدة الخاصة بالحق في الخصوصية، إن هذه التقنيات، التي يمكنها تسجيل وفك تشفير وحتى تعديل نشاط الدماغ، "تثير تحديات أخلاقية وقانونية قد تؤثر على الحقوق الأساسية، خصوصًا الحق في الخصوصية".

وسلط تقرير الخبيرة الأممية الضوء على فوائد ومخاطر التقنيات العصبية.

وأكد أنه على الرغم من أنها تُقدم حلولا رائدة لعلاج الاضطرابات العصبية، وتحسين الوظائف الإدراكية، وتوسيع القدرات البشرية، إلا أنه أشار إلى قدرة التقنيات العصبية على الوصول إلى أفكار الأفراد ومشاعرهم الحميمية، محذرا من مخاطر المراقبة غير المصرح بها أو الإكراه.

وأوضحت نوغريس أن الوصول غير المصرح به إلى نشاط الدماغ قد يستغل للتأثير على القرارات الشخصية والسلوكيات والأيديولوجيات، مما يُضعف الاستقلالية الشخصية والسلامة العقلية.

كما حذرت من إمكانية تحفيز أنماط عصبية معينة بشكل مصطنع، مما قد يؤدي إلى تشكيل الآراء أو المشاعر أو حتى الذكريات، وهو ما يمثل تهديدا جوهريا للإرادة الحرة.

وأشار التقرير إلى أن معالجة البيانات العصبية قد تؤدي إلى شكل جديد من التمييز، مما يعمّق التفاوتات الاجتماعية ويخلق فئة جديدة من الأفراد المهمشين بناءً على خصائصهم العصبية.

كما نبه إلى مخاطر اختراق هذه التقنيات التي تربط نشاط الدماغ بالشبكات الرقمية، مما قد يعرض الأفراد لسرقة الهوية أو السماح لجهات خارجية بالتأثير على نشاطهم العصبي عن بعد.

وشددت الخبيرة الأممية على أن تنظيم التقنيات العصبية ليس مجرد ضرورة قانونية، بل هو ضرورة أخلاقية، مؤكدة أن التحرك الفوري لوضع ضمانات صارمة هو أمر أساسي لضمان استخدام هذه التقنيات لخدمة البشرية بدلا من استغلالها.