الصين تفرض قواعد صارمة على تطوير الذكاء الاصطناعي في الداخل فقط. أرشيفية - تعبيرية
الصين تفرض قواعد صارمة على تطوير الذكاء الاصطناعي في الداخل فقط. أرشيفية - تعبيرية

تفرض السلطات الصينية على أراضيها ضوابط صارمة على مطوري تطبيقات الذكاء الاصطناعي التي تمنح خصائص إنتاج مقاطع فيديو مزيفة، إلا أنها تسمح لهم بالعمل والقيام بأنشطة في الخارج، خاصة في الولايات المتحدة.

ودخلت قواعد تنظيم الذكاء الاصطناعي في الصين حيز التنفيذ في يناير الماضي، والتي تستهدف تنظيم التطبيقات التي لديها القدرة على توليد مقاطع فيديو بالتزييف العميق.

وبحسب تقرير نشرته شبكة "أن بي سي نيوز"، يركز المشروعون الأميركيون في متابعة مخاطر استخدام تطبيق تيك توك، ولكنهم لا يدركون أن هذه المخاطر تمتد إلى تطبيقات صينية أخرى مثل تطبيقات التسوق الإلكتروني "شي أن" و"تيمو".

وتشهد تقنيات الذكاء الاصطناعي طفرة إذ أصبح لديها القدرة على "التزييف العميق" بإنشاء مقاطع فيديو بالصوت الصورة، يستخدم فيها وجوه أشخاص حقيقيين في مقاطع غير حقيقية، وحوالي 96 في المئة من هذا المحتوى الجديد يتركز في إنشاء مواد إباحية غالبا ما تكون لأشخاص لم يوافقوا على إنشاء هذه الفيديوهات.

والتزييف العميق (Deep fake) يعتبر أحد أشكال الذكاء الاصطناعي الذي يعتمد على قاعدة بيانات من الصور والمقاطع المصورة بهدف إنشاء صور أو مقاطع "مقنعة خيالية" بالصوت والصورة.

قدرات الذكاء الاصطناعي تثير القلق حول العالم. أرشيفية - تعبيرية
"صناعة المواد الإباحية".. "شبح موت" يهدد بإغراق "الذكاء الاصطناعي"
قد تكون "التكنولوجية المغيرة للحياة" (Life-changing technology) أو ما يعرف بـ"بالتكنولوجيا المزعزعة" (disruptive technology) تكشف عن تطورات جديدة يشهدها عالمنا، ولكن هذه التطورات لن تكون من دون ضريبة قد تطال المستخدمين والمجتمعات المختلفة.

وأجرت "أن بي سي" مراجعة لـ17 تطبيقا متاحة للتحميل على الهواتف الخلوية والتي طورها شركات في روسيا وأوكرانيا وبريطانيا والولايات المتحدة وإيطاليا والصين.

وأظهرت المراجعة أن بعض التطبيقات التي طورتها شركات صينية تقول إنها "تسمح بإنتاج مقاطع فيديو إباحية غير حسية"، إذ تقوم بتغيير صورة الوجه باستخدام "فلاتر" محددة مسبقا.

مخاوف من تآكل الخط الفاصل بين الحقيقة والخيال. أرشيفية - تعبيرية

ولكن أحد التطبيقات وهو "فيس ماجيك" والذي يعود تطويره لشركة صينية يعرض إعلانات جنسية صريحة تقول إنه "قادر على إنشاء محتوى إباحي بالتزييف العميق في ثوان معدودة".

ومنذ مايو 2021 تم تحميل هذا التطبيق أكثر من 2.4 مليون مرة، بحسب بيانات "أبتوبيا" المتخصصة في تحليل بيانات تطبيقات الهواتف الخلوية.

ويشير التقرير إلى أن رغم معارضة هذه التطبيقات "لقواعد التزييف العميق الجديدة في الصين التي دخلت حيز التنفيذ في ينانير الماضي"، إلا أنها تعمل من دون أي مشاكل في الصين.

وحتى الآن لم تقر الولايات المتحدة قوانين فيدرالية تفرض عقوبات على إنشاء محتوى إباحي باستخدام التزييف العميق.

وبدأت بعض الدول في اتخاذ خطوات لتنظيم مشكلة خصوصية البيانات والحد من مخاوف انتشار التزييف العميق.

كايت آيزاكس، مواطنة بريطانية ناشطة من أجل سحب المحتويات الإباحية المنتجة بدون الحصول على موافقة من موقع "بورنهاب"، تحدثت لشبكة "بي بي سي" في أكتوبر الماضي، كيف أنها "انهارت" حين نشر فيديو إباحي "فائق الواقعية" يستخدم وجهها على تويتر.

جميع من لهم صور على الإنترنت قد تطالهم أخطار الذكاء الاصطناعي، ولكن النساء قد تشكل هذه التكنولوجيا "كابوسا لهن"، ما يجعلهن عرضة أكثر للاستهداف، فيما يشير خبراء إلى أن المشاهير قد يكونوا الأكثر عرضة بالاستهداف بهذه التقنيات، خاصة في ظل توفر صور ومقاطع كثيرة لهم على الإنترنت.

خبراء يدعون لتشريعات تضبط الذكاء الاصطناعي. أرشيفية - تعبيرية

وقد يقود انتشار التزييف العميق إلى ما وصفته وكالة الشرطة الأوروبية "يوروبول" بـ"حرب نهاية العالم المعلوماتية"، وفق سيناريو يكون فيه العديد من الأشخاص عاجزين عن التمييز ما بين الواقع والتخييل ومعرفة ما هي مصادر الأنباء الموثوقة.

في فبراير الماضي، حذر المفوض السامي لحقوق الإنسان في الأمم المتحدة، فولكر تورك، من أن التقدم الذي أحرز مؤخرا في مجال الذكاء الاصطناعي يمثل خطرا بالغا على حقوق الإنسان، داعيا إلى وضع "محاذير فعالة".

وأعرب تورك في بيان حينها عن "قلقه الكبير إزاء قدرة التقدم الأخير في مجال الذكاء الاصطناعي على إلحاق الضرر.. كرامة الإنسان وكل حقوق الإنسان في خطر كبير".

ووجه المسؤول الأممي "دعوة عاجلة إلى الشركات والحكومات من أجل أن تطور سريعا محاذير فعالة".

وتعتزم دول عديدة وضع تشريعات لهذا القطاع، ويحتل الاتحاد الأوروبي موقعا مركزيا في جهود تنظيم هذه التقنيات الجديدة مع العمل على مشروع قانون يعرف بـ"إيه أي أكت" أو "قانون الذكاء الاصطناعي" قد تنتهي صياغته نهاية العام الحالي أو مطلع 2024، على أن يدخل حيز التنفيذ بعد بضع سنوات.

وفي الولايات المتحدة، يدعو عدد من أعضاء الكونغرس إلى تشكيل مجموعة عمل متخصصة في مراقبة هذا النوع من التزوير، غير أنهم يواجهون معارضة شديدة من ناشطين من أجل الحقوق الرقمية يحذرون من أن هذه التدابير قد تكبح الابتكار أو تحد من حرية التعبير.

وأعلنت الحكومة البريطانية في نوفمبر أنها تعتزم حظر تشارك الفيديوهات الإباحية المنتجة بواسطة "التزييف العميق" التي تعد بدون موافقة الضحايا.

أوبن إيه آي
تصريحات لايكي جاءت قبل انعقاد قمة الذكاء الاصطناعي العالمية بكوريا الجنوبية

استقال جان لايكي، وهو باحث رئيسي في مجال السلامة في شركة "أوبن إيه آي"، بعد أيام قليلة من إطلاق أحدث نموذج للذكاء الاصطناعي "تشات جي بي تي GPT-4o"، وذلك وفقا لتقرير نشرته صحيفة "غارديان" البريطانية.

وكشف لايكي عن سبب استقالته في تدوينة نشرها على منصة "إكس"، زاعما أن شركته السابقة "تعطي تعطي الأولوية للمنتجات اللامعة" على حساب السلامة والموثوقية.

ومصطلح المنتجات اللامعة "shiny products" في مجال التكنولوجيا والذكاء الاصطناعي يشير إلى المنتجات أو الأدوات التي تتميز بجاذبيتها البصرية أو التقنية، لكن قد لا تكون لديها فائدة عملية كبيرة أو لا تحل مشكلة حقيقية بفعالية.

وتلك "المنتجات اللامعة" غالباً ما تكون مصممة لإبهار المستخدمين بميزات متقدمة أو تصميم جذاب، لكنها قد تفتقر إلى العمق أو الأداء الملائم للاحتياجات الفعلية للمستخدمين.

وكان لايكي باحثًا رئيسيًا في مجال السلامة في شركة "OpenAI"، حيث شغل منصب رئيس مشارك لقسم المحاذاة الفائقة، مما يضمن التزام أنظمة الذكاء الاصطناعي القوية بالقيم والأهداف الإنسانية.

وجاءت تصريحاته قبل قمة الذكاء الاصطناعي العالمية في العاصمة الكورية الجنوبية، سيول، الأسبوع المقبل، حيث سيناقش السياسيون والخبراء والمديرون التنفيذيون في مجال التكنولوجيا، الرقابة على التكنولوجيا.

وأوضح لايكي في منشوره أنه على مدى الأعوام المنصرمة، "تراجعت ثقافة وعمليات السلامة" في مقابل "المنتجات اللامعة"، مشددا على أنه كان يختلف مع قيادة "أوبن إيه آي" حول أولويات الشركة لبعض الوقت، لكن هذه المواجهة وصلت أخيرا إلى "نقطة الانهيار"، على حد تعبيره.

وقال: "إن الشركة، التي طورت أيضًا مولد الصور Dall-E ومولد الفيديو Sora، يجب أن تستثمر المزيد من الموارد في قضايا مثل السلامة والتأثير الاجتماعي والسرية والأمن للجيل القادم من النماذج".

وتابع: "على مدى السنوات الماضية، تراجعت ثقافة وعمليات السلامة إلى المنتجات اللامعة".

ونوه لايكي إلى أنه من الصعب جدًا حل هذه المشكلات بشكل صحيح، معربا عن قلقه من "أننا لا نسير على الطريق الصحيح"، مشددا على أن الأمر أصبح "أصعب فأصعب" بالنسبة لفريقه لإجراء أبحاثه.

وأشار إلى أن "بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته، وبالتالي تتحمل (أوبن إيه آي) مسؤولية هائلة نيابة عن البشرية جمعاء.. ويجب عليها أن تصبح شركة للسلامة أولًا".

أكبر شركة إماراتية تضيف مراقبا "مدعوما بالذكاء الاصطناعي"
أضافت شركة أبو ظبي العالمية القابضة، مراقبا مدعوما بالذكاء الاصطناعي إلى مجلس إدارتها، في خطوة تقول الشركة التي تبلغ قيمتها 238 مليار دولار، إنها ستساعد أعضاء مجلس الإدارة من البشر على اتخاذ قرارات استراتيجية أفضل، وفق "بلومبيرغ".

في المقابل، رد الرئيس التنفيذي للشركة، سام ألتمان، على تصريحات لايكي بشكره على مساهماته في ثقافة السلامة في الشركة.

وأضاف في تدوينة: "إنه على حق، لدينا الكثير لنفعله.. نحن ملتزمون بالقيام بذلك".