على دماغ الإنسان مواكبة تطور ذكاء الآلات
الذكاء الاصطناعي | Source: Courtesy Image

طورت شركة "أوبن أيه آي" لأبحاث الذكاء الاصطناعي AI، تقنية لغوية جديدة ترى أنها أخطر من أن تطرح للجمهور.

المنتج الجديد للشركة غير نفعية والذي يطلق عليه "جي بي تي 2" يمكنه تخمين الكلمات والعبارات التالية التي ستستخدمها، كما يفعل هاتفك الجوال حاليا بفارق أن "جي بي تي 2" يولد كلمات وعبارات واقعية متصلة باتساق مع موضوع من اختيارك"، حسب ما أعلنت الشركة نهاية الأسبوع الماضي.

​​ولاستكمال عبارة تقول إن "إعادة التدوير ليست مفيدة للبيئة"، قدمت الشركة نموذجا لنص من كتابة "جي بي تي 2" مكونا من 25 جملة متصلة ومتسقة ومتماشية مع موضوع الحديث.

وهذا جزء من الرد: "إعادة التدوير ليست جيدة للعالم، إنها سيئة للبيئة وسيئة لصحتنا وسيئة لاقتصادنا. أنا لا أمزح، إعادة التدوير ليست جيدة للبيئة بل مدمرة للأرض وأحد مسببات الاحتباس الحراري الكبرى".

وحسب تقرير لموقع "تيك كرنش" المختص بالتكنولوجيا فإن "أوبن أيه آي" وجدت أنه قد يتم إساءة استخدام هذه التقنية القادرة على إجراء محادثات أفضل بتوظيفها في نشر الأخبار الكاذبة وانتحال الشخصية والتعليقات الآلية على منصات التواصل الاجتماعي.

وقالت الشركة إنها أطلقت فقط نسخة مصغرة ومعدلة من القالب اللغوي هذا، مشيرة إلى "مخاوف أمنية ومتعلقة بالسلامة".

وتلقت الشركة انتقادات لعدم إطلاقها النسخة الكاملة من التنقية، واتهامات بأنها تناقض ما أهدافها، واسمها نفسه الذي يعني "الذكاء الاصطناعي المفتوح".

يذكر أن إيلون ماسك الرئيس التنفيذي لشركة "سبايس أكس" هو أحد مؤسسي "أوبن أيه آي"، قبل أن ينفصل عن الشركة قبل نحو عام.

مخاوف من الأضرار التي قد تسببها التقنيات العصبية بدون ضوابط
مخاوف من الأضرار التي قد تسببها التقنيات العصبية بدون ضوابط

حذرت الأمم المتحدة، الأربعاء، من المخاطر "غير المسبوقة" التي تشكلها التقنيات العصبية على خصوصية الأفراد واستقلاليتهم، رغم "إمكانياتها الهائلة" في الطب والاتصالات والبحوث.

وفي كلمتها أمام مجلس حقوق الإنسان في دورته الـ58، قالت آنا نوغريس، مقررة الأمم المتحدة الخاصة بالحق في الخصوصية، إن هذه التقنيات، التي يمكنها تسجيل وفك تشفير وحتى تعديل نشاط الدماغ، "تثير تحديات أخلاقية وقانونية قد تؤثر على الحقوق الأساسية، خصوصًا الحق في الخصوصية".

وسلط تقرير الخبيرة الأممية الضوء على فوائد ومخاطر التقنيات العصبية.

وأكد أنه على الرغم من أنها تُقدم حلولا رائدة لعلاج الاضطرابات العصبية، وتحسين الوظائف الإدراكية، وتوسيع القدرات البشرية، إلا أنه أشار إلى قدرة التقنيات العصبية على الوصول إلى أفكار الأفراد ومشاعرهم الحميمية، محذرا من مخاطر المراقبة غير المصرح بها أو الإكراه.

وأوضحت نوغريس أن الوصول غير المصرح به إلى نشاط الدماغ قد يستغل للتأثير على القرارات الشخصية والسلوكيات والأيديولوجيات، مما يُضعف الاستقلالية الشخصية والسلامة العقلية.

كما حذرت من إمكانية تحفيز أنماط عصبية معينة بشكل مصطنع، مما قد يؤدي إلى تشكيل الآراء أو المشاعر أو حتى الذكريات، وهو ما يمثل تهديدا جوهريا للإرادة الحرة.

وأشار التقرير إلى أن معالجة البيانات العصبية قد تؤدي إلى شكل جديد من التمييز، مما يعمّق التفاوتات الاجتماعية ويخلق فئة جديدة من الأفراد المهمشين بناءً على خصائصهم العصبية.

كما نبه إلى مخاطر اختراق هذه التقنيات التي تربط نشاط الدماغ بالشبكات الرقمية، مما قد يعرض الأفراد لسرقة الهوية أو السماح لجهات خارجية بالتأثير على نشاطهم العصبي عن بعد.

وشددت الخبيرة الأممية على أن تنظيم التقنيات العصبية ليس مجرد ضرورة قانونية، بل هو ضرورة أخلاقية، مؤكدة أن التحرك الفوري لوضع ضمانات صارمة هو أمر أساسي لضمان استخدام هذه التقنيات لخدمة البشرية بدلا من استغلالها.