1,2 مليار يورو غرامة على شركة ميتا لانتهاكها قواعد الاتحاد الأوروبي للبيانات
تهدف ميتا إلى أن يكون نموذج الذكاء الاصطناعي الجديد جاهزا العام المقبل.

ذكرت صحيفة وول ستريت جورنال نقلا عن أشخاص مطلعين أن شركة ميتا بلاتفورمز تعمل على تطوير نظام جديد للذكاء الاصطناعي يهدف إلى أن يكون بنفس قوة النموذج الأكثر تقدما الذي تقدمه شركة أوبن أيه آي، وهي منظمة غير ربحية لأبحاث الذكاء الاصطناعي.

وقالت الصحيفة في عددها الصادر أمس السبت إن الشركة الأم لفيسبوك تهدف إلى أن يكون نموذج الذكاء الاصطناعي الجديد جاهزا العام المقبل. وأضافت أنه سيكون أقوى عدة مرات من نسختها التجارية التي يطلق عليها اسم لاما 2.

ولاما 2 هو نموذج لغوي كبير للذكاء الاصطناعي وفق نظام المصدر المفتوح أطلقته ميتا في يوليو تموز.

وقالت صحيفة وول ستريت إن النظام المخطط له والذي لا يزال من المتوقع أن يشهد تغييرات سيساعد الشركات الأخرى على بناء خدمات تنتج نصا متطورا وتحليلات ومخرجات أخرى.

وأضافت الصحيفة في تقريرها أن ميتا تتوقع بدء التدريب على نظام الذكاء الاصطناعي الجديد المعروف باسم النموذج اللغوي الكبير في أوائل عام 2004.

ولم ترد ميتا بعد على طلب رويترز للتعليق على التقرير.

مخاوف من الأضرار التي قد تسببها التقنيات العصبية بدون ضوابط
مخاوف من الأضرار التي قد تسببها التقنيات العصبية بدون ضوابط

حذرت الأمم المتحدة، الأربعاء، من المخاطر "غير المسبوقة" التي تشكلها التقنيات العصبية على خصوصية الأفراد واستقلاليتهم، رغم "إمكانياتها الهائلة" في الطب والاتصالات والبحوث.

وفي كلمتها أمام مجلس حقوق الإنسان في دورته الـ58، قالت آنا نوغريس، مقررة الأمم المتحدة الخاصة بالحق في الخصوصية، إن هذه التقنيات، التي يمكنها تسجيل وفك تشفير وحتى تعديل نشاط الدماغ، "تثير تحديات أخلاقية وقانونية قد تؤثر على الحقوق الأساسية، خصوصًا الحق في الخصوصية".

وسلط تقرير الخبيرة الأممية الضوء على فوائد ومخاطر التقنيات العصبية.

وأكد أنه على الرغم من أنها تُقدم حلولا رائدة لعلاج الاضطرابات العصبية، وتحسين الوظائف الإدراكية، وتوسيع القدرات البشرية، إلا أنه أشار إلى قدرة التقنيات العصبية على الوصول إلى أفكار الأفراد ومشاعرهم الحميمية، محذرا من مخاطر المراقبة غير المصرح بها أو الإكراه.

وأوضحت نوغريس أن الوصول غير المصرح به إلى نشاط الدماغ قد يستغل للتأثير على القرارات الشخصية والسلوكيات والأيديولوجيات، مما يُضعف الاستقلالية الشخصية والسلامة العقلية.

كما حذرت من إمكانية تحفيز أنماط عصبية معينة بشكل مصطنع، مما قد يؤدي إلى تشكيل الآراء أو المشاعر أو حتى الذكريات، وهو ما يمثل تهديدا جوهريا للإرادة الحرة.

وأشار التقرير إلى أن معالجة البيانات العصبية قد تؤدي إلى شكل جديد من التمييز، مما يعمّق التفاوتات الاجتماعية ويخلق فئة جديدة من الأفراد المهمشين بناءً على خصائصهم العصبية.

كما نبه إلى مخاطر اختراق هذه التقنيات التي تربط نشاط الدماغ بالشبكات الرقمية، مما قد يعرض الأفراد لسرقة الهوية أو السماح لجهات خارجية بالتأثير على نشاطهم العصبي عن بعد.

وشددت الخبيرة الأممية على أن تنظيم التقنيات العصبية ليس مجرد ضرورة قانونية، بل هو ضرورة أخلاقية، مؤكدة أن التحرك الفوري لوضع ضمانات صارمة هو أمر أساسي لضمان استخدام هذه التقنيات لخدمة البشرية بدلا من استغلالها.