"يطلب صانعو المحتوى الإباحي المزيف نحو 5 دولارات لتحميل آلاف المقاطع التي تعرض وجوه المشاهير"
"يطلب صانعو المحتوى الإباحي المزيف نحو 5 دولارات لتحميل آلاف المقاطع التي تعرض وجوه المشاهير"

تحصد مقاطع فيديو إباحية معدلة رقميا باستخدام تقنية التزييف العميق عشرات ملايين المشاهدات، في حين أنها تستخدم صور نساء لا علاقة لهن بهذه المواد ولم يوافقن على استخدام وجوههن.

وذكر تقرير لشبكة أن بي سي أن المستثمرين في مجال التزييف العميق ظلوا بعيدا عن الأنظار منذ زمن، إلا أن التعامل مهم كان سهلا وبعضهم يقبل الدفع بالبطاقات الائتمانية مقابل خدمات تزييف الفيديو.

ويطلب صانعو المحتوى الإباحي المزيف بضع دولارات لتحميل آلاف المقاطع التي تعرض وجوه مشاهير، ويقبلون الدفع من خلال بطاقات ائتمانية أو عملات رقمية وفق ما يوضح التقرير.

قدرات الذكاء الاصطناعي تثير القلق حول العالم. أرشيفية - تعبيرية
"صناعة المواد الإباحية".. "شبح موت" يهدد بإغراق "الذكاء الاصطناعي"
قد تكون "التكنولوجية المغيرة للحياة" (Life-changing technology) أو ما يعرف بـ"بالتكنولوجيا المزعزعة" (disruptive technology) تكشف عن تطورات جديدة يشهدها عالمنا، ولكن هذه التطورات لن تكون من دون ضريبة قد تطال المستخدمين والمجتمعات المختلفة.

صحيح أن مقاطع الفيديو المعدلة أو المصنوعة من خلال تقنية التزييف العميق موجودة على شبكة الإنترنت منذ سنوات، إلا أن تقرير أن بي سي يلفت إلى أن تطور الذكاء الاصطناعي جعل من السهل صنع مواد جنسية مزيفة من دون رضا الأطراف الأخرى وتحقيق بعض الأرباح الإضافية.

وراجعت شبكة أن بي سي موقعين يعرضان مقاطع فيديو إباحية معدة بواسطة التزييف العميق، وتبين لها سهولة الوصول للموقعين عبر غوغل، إضافة إلى استخدام المطورين لمنصات دردشة للتسويق وبيع مقاطع فيديو جنسية مزيفة أو إنشاء مقاطع حسب طلب "الزبون".

ويشير التقرير إلى أن التزييف العميق يحصل من خلال استخدام برامج ذكاء اصطناعي يمكنها تعديل مقطع فيديو واستبدال وجه شخص بوجه شخص آخر وتتفاعل تعابير الوجه الجديد مع المشهد بكل سلاسة، وحسب إحصاءات لشركة Sensity التي مقرها أمستردام وتراقب الوسائط المطورة من خلال الذكاء الاصطناعي، فإن 96 في المئة من التزييف العميق يعود لمواد جنسية تضم نساء لم يوافقن على إنشاء المحتوى.

وفي حين معظم مقاطع فيديو التزييف العميق تعرضت لمشاهير، بدأ صناع المحتوى يعرضون خدمات صنع مقاطع فيديو إباحية لأي شخص، حسب الشبكة التي لفتت أيضا إلى أن تنامي الحديث عن الظاهرة زاد البحث في غوغل عن التزييف العميق للمواد الإباحية.

وضمن الإطار أوضح متحدث باسم غوغل لشبكة أن بي سي أن أي شخص تعرض للتشهير من خلال تقنية التزييف العميق يمكنه طلب إزالة المقطع من صفحات غوغل التي تتضمن مواد إباحية مزيفة غير رضائية.

وقال المتحدث إن محرك البحث يصمم أنظمة تصنيف خاصة عالية الجودة لتجنب عرض محتوى ضار أو إباحي للأشخاص عندما لا يبحثون عنه.

وسبق أن قال أستاذ الذكاء الاصطناعي، أشرف النجار، في حديث لموقع "الحرة" إن "نماذج الذكاء الاصطناعي التوليدية المختلفة لديها القدرة على إحداث ثورة في صناعة المواد الإباحية من خلال إنشاء محتوى واقعي للغاية، وقابل للتخصيص بناء على ما يفضله أو يرغبه الزائر لمثل هذه المواقع وذلك من خلال استخدام خوارزميات متقدمة وتقنيات التعلم العميق".

وشرح حينها أن "استخدام هذه التقنيات لا يقف عند إنشاء صور أو مقاطع فيديو جديدة أو مزيفة فقط بل يتعداه إلى دمجها مع تقنية الواقع الافتراضي والمعزز من أجل توفير تجربة إباحية تفاعلية قريبة من الواقع".

وأضاف أنه "يمكن لنماذج الذكاء الاصطناعي التوليدية، التي تستخدم خوارزميات التعلم العميق، إنشاء مواد إباحية جديدة من خلال تحليل الكم الهائل من المحتوى الإباحي المتاح على الشبكة العنكبوتية، وأنماط التعلم والأنماط المرئية والمسموعة، والتدريب عليها من أجل إنشاء صور أو مقاطع فيديو أو حتى محتوى تفاعلي مخصص لتلبية احتياجات المستخدم حسب ما يفضله".

وبدوره صرح الخبير في الأمن السيبراني والتحول الرقمي، رولان أبي نجم، في التقرير السابق الذي تحدث فيه موقع "الحرة" عن "صناعة المواد الإباحية" بواسطة الذكاء الاصطناعي،  أن برامج الذكاء الاصطناعي التوليدي ليست بمعزل عن استغلالها في صناعة المقاطع "الإباحية والتي ترتكز بشكل كبير على التزييف العميق أكانت لتوليد مقاطع الفيديو أو حتى لتوليد الصور".

والتزييف العميق يعتبر أحد أشكال الذكاء الاصطناعي الذي يعتمد على قاعدة بيانات من الصور والمقاطع المصورة بهدف إنشاء صور أو مقاطع "مقنعة خيالية" بالصوت والصورة.

صور الحرب بين إسرائيل وحماس أظهرت بشكل واضح إمكانات الذكاء الاصطناعي كأداة دعائية مضللة
صور الحرب بين إسرائيل وحماس أظهرت بشكل واضح إمكانات الذكاء الاصطناعي كأداة دعائية مضللة

تزداد المخاوف بشأن قدرة تقنية التزييف العميق على نشر الأخبار المضللة من خلال استغلال الذكاء الاصطناعي لصنع محتوى زائف، يهدف لإثارة مشاعر الغضب لدى الجمهور بالتزامن مع الحرب بين إسرائيل وحماس في غزة.

وتنتشر على مواقع التواصل الاجتماعي مقاطع فيديو وصور يدّعي ناشروها أنها تظهر على سبيل المثال مشاهد القتل والدمار في غزة، وأخرى تتحدث بالعكس من ذلك أن صور الجثث لممثلين يدعون الموت من أجل جذب التعاطف وتعميق مشاعر الكراهية.

وأظهرت صور الحرب بين إسرائيل وحماس بشكل واضح إمكانات الذكاء الاصطناعي كأداة دعائية مضللة تستخدم لخلق صور يحاول ناشروها الادعاء بأنها واقعية. 

ومنذ أن بدأت الحرب الشهر الماضي، تم استخدام الصور المعدلة رقميا والمنتشرة على وسائل التواصل الاجتماعي لتقديم ادعاءات كاذبة بشأن المسؤولية عن الضحايا أو لخداع الناس بشأن فظائع لم تحدث أبدا.

وعلى سبيل انتشرت مؤخرا صور لمنازل وشوارع مدمرة في غزة، بينها مجموعة تظهر أطفال رضع ملطخون بالدماء.

تمت مشاهدة هذه الصور ملايين المرات عبر الإنترنت منذ بداية الحرب، لكنها في الحقيقة عبارة عن صور أنشأت بواسطة تقنية التزييف العميق باستخدام الذكاء الاصطناعي. 

عند التدقيق في الصور يمكن ملاحظة الأدلة على ذلك عن كثب، حيث أصابع اليدين غير متسقة مع الجسم الطبيعي للإنسان والعيون تتلألأ بضوء غير طبيعي، وهي علامات تدل على تزييف رقمي.

ومع ذلك، فإن مشاعر الغضب التي تولدها هذه الصور تبقى حقيقية، مما يسلط الضوء على المدى الذي يمكن أن يلعبه المحتوى المضلل في الصراع.

وفي حين أن معظم مقاطع الفيديو والصور المضللة المتداولة عبر الإنترنت عن الحرب لم تتطلب الاستعانة بالذكاء الاصطناعي وجاءت من مصادر أكثر تقليدية، إلا أن استخدام التقدم التكنولوجي يتزايد بشكل ملحوظ.

تقول وكالة أسوشيتد برس إن هذا الأمر يساعد في احتمال زيادة إمكانية أن يصبح الذكاء الاصطناعي شكلا آخر من أشكال الأسلحة، وقدم لمحة عما سيحدث خلال الصراعات المستقبلية والانتخابات وغيرها من الأحداث الكبرى.

في بعض الحالات، تم إعادة استخدام صور من صراعات أو كوارث أخرى وتمريرها على أنها جديدة ووقعت خلال الحرب في غزة. 

في الأسابيع الأولى من الصراع انتشرت على مواقع التواصل الاجتماعي مقاطع فيديو وصور يدّعي ناشروها أنها لفلسطينيين يمثلون مشاهد القتل والموت، على غرار مقطع يصوّر رجلا بكفن أبيض يفتح عينيه وينظر من حوله.

إلا أن هذا الفيديو في الحقيقة ليس لفلسطينيين يمثّلون بأنهم قتلوا في الحرب الدائرة، بل هو يصوّر دورة لتنظيم الجنازات في مسجد في ماليزيا، وفقا لوكالة فرانس برس.

الفيديو واحد من بين مجموعة منتشرة في الآونة الأخيرة على صفحات أشخاص ومجموعات تُشكّك بحصيلة القتلى الفلسطينيين

وكان الفيديو واحدا من بين مجموعة منتشرة في الآونة الأخيرة على صفحات أشخاص ومجموعات تُشكّك بحصيلة القتلى الفلسطينيين خلال الحرب التي بلغت نحو 15 ألف شخص، وفقا لوزارة الصحة التابعة لحكومة حماس في غزة.

في فيديو آخر لطفل فلسطيني قتيل أثار انتشاره تنديدا على مواقع التواصل الاجتماعي، ادّعت مواقع إسرائيلية رسمية أنه يُظهر في الحقيقة "لعبة" استخدمتها حركة حماس لتضليل الرأي العام. 

لكن وكالة فرانس برس ذكرت أن هذا الادّعاء غير صحيح، وما يظهر في الفيديو هو طفل قتيل بالفعل وليس لعبة، بحسب مصوّر الوكالة الذي التقط صورا للطفل القتيل نفسه.

وفي حالات أخرى، تم استخدام برامج الذكاء الاصطناعي التوليدية لإنشاء صور من الصفر، مثل صورة طفل يبكي وسط حطام القصف الذي انتشر على نطاق واسع خلال الأيام الأولى للصراع.

وتشمل الأمثلة الأخرى للمحتوى الذي أنشيء بواسطة الذكاء الاصطناعي مقاطع فيديو تظهر ضربات صاروخية إسرائيلية مفترضة، أو دبابات تسير عبر الأحياء المدمرة، أو عائلات تفتش في الأنقاض بحثا عن ناجين.

وبالإضافة للذكاء الاصطناعي يشارك مستخدمون على وسائل التواصل الاجتماعي مقاطع مصورة هي في الحقيقة جزء من مقاطع ترويجية للعبة فيديو قتالية تتضمن محاكاة للمعارك العسكرية زاعمين على سبيل المثال أنها تصور استهداف مسلحين من حركة حماس لجنود إسرائيليين داخل غزة.

لقطة شاشة لأحد الحسابات التي نشرت المقطع المصور

وفي أحد هذه المقاطع، ومدته ثماني ثوان، يظهر جندي وأمامه دبابة ثم يتم إصابتهما من الخلف لتنفجر الدبابة ويقع الجندي أرضا. 

لكن عند البحث، يمكن العثور على مقطع الفيديو المتداول في الادعاءات منشورا في حساب لعبة الفيديو القتالية "سكواد" في يوتيوب في ديسمبر 2022.

وجاء في الوصف المرافق للفيديو أنه فيديو ترويجي للتحديث الجديد للعبة الفيديو.