96% من مواد "التزييف العميق" كانت إباحية و99% منها تستهدف النساء
96% من مواد "التزييف العميق" كانت إباحية و99% منها تستهدف النساء

كشف تقرير لصحيفة "واشنطن بوست" الأميركية، عن انتشار هائل لاستخدام أدوات الذكاء الاصطناعي في نشر "صور العري"، مما يهدد النساء وخصوصا المراهقات حول العالم، في ظل عدم توصل أغلب دول العالم حتى الآن لقوانين حاكمة ومنظمة لتلك الأدوات.

ويمكن لبرنامج يعمل بالذكاء الاصطناعي، أن يصنع صورا عارية بناء على تحليلات للصور العادية المنشورة على مواقع التواصل الاجتماعي، مما يجعل تبدو وكأنها حقيقية بدرجة كبيرة ومتناسقة.

وسلطت الصحيفة الأميركية الضوء على المؤثرة على يوتيوب، غابي بيل (26 عاما)، التي شعرت بصدمة كبيرة عندما علمت أن صورة عارية لها انتشرت على الإنترنت، كونها لم تنشر أي صور مماثلة، لتدرك أنها مزيفة.

,أشارت واشنطن بوست، إلى أن بيل حاولت حذف الصورة، لكن زميلها الذي لجأت إليه قال لها إن هناك "حوالي 100 صورة مزيفة لها منتشرة على الإنترنت، وجميعها لها مصدر واحدK وهي تطبيقات تعمل بالذكاء الاصطناعي".

"انتشار واسع"

وأضاف التقرير أن العام الحالي شهد انتشارا واسعا لمواد العري المفبركة عبر الإنترنت، سواء صور أو مقاطع فيديو، وذلك في ظل وجود أدوات ذكاء اصطناعي رخيصة الثمن وسهلة الاستخدام، يمكنها "تعرية" الصور العادية لأي شخص أو وضع وجهه على فيديو لأشخاص آخرين بتقنية "ديب فيك – Deepfake" (التزييف العميق).

ونقلت الصحيفة عن المحللة في مجال الذكاء الاصطناعي، جينيفيف أوه (Genevieve Oh)، قولها إن "المواقع الـ10 الأولى التي تنشر صورا إباحية، شهدت زيادة بنسبة 290 بالمئة منذ عام 2018، في ظل انتشار الصور الإباحية المزيفة".

ومن المشاكل التي تواجه الضحايا هنا، هو عدم وجود قانون فيدرالي في الولايات المتحدة للتعامل مع مثل هذه الأدوات الجديدة. وبحسب "واشنطن بوست"، فإن "ولايات قليلة جدا هي من صنعت لوائح منظمة".

كما أن الأمر التنفيذي الأخير للرئيس الأميركي جو بايدن، "يوصي فقط ولا يجبر شركات التكنولوجيا على وضع إشارة إلى أن الصور أو مقاطع الفيديو أو الصوت تم صناعتها بالذكاء الاصطناعي".

وقالت أستاذة القانون في جامعة سان فرانسيسكو، تيفاني لي، لواشنطن بوست: "إننا نواجه مشكلة خطيرة جدا"، محذرة مثل أساتذة قانون آخرين من أن "صور الذكاء الاصطناعي المزيفة لا تخضع لقوانين حقوق الملكية الفكرية في ظل التشابه الكبير بينها، نظرا لأنها تعتمد بالأساس على مجموعة بيانات متاحة لملايين الصور بالفعل".

وبالعودة إلى أزمة تزييف الصور العارية للمراهقات والنساء، أشارت دراسة عام 2019 لشركة "سينسيتي" للذكاء الاصطناعي والمخصصة في رقابة المقاطع المزيفة، إلى أن "96 بالمئة من مواد التزييف العميق كانت إباحية، و99 بالمئة منها تستهدف النساء".

واقعة إسبانيا

وفي سبتمبر الماضي، هزت أزمة كبرى بلدة ألمندراليخو الصغيرة الواقعة جنوبي إسبانيا، بعد تداول صور عارية لفتيات صنعت بواسطة الذكاء الاصطناعي، وبدأت الشرطة تحقيقا في القضية.

وأوردت صحف إسبانية وبريطانية، آنذاك، أن الشرطة فتحت تحقيقا بعد إبلاغ أمهات بتداول صور، تم تعديلها بواسطة الذكاء الاصطناعي، لأكثر من 20 فتاة في البلدة التي يبلغ عدد سكانها نحو 30 ألف شخص، في مقاطعة بداخوث.

وتضم ألمندراليخو 5 مدارس متوسطة، وفي 4 منها على الأقل انتشرت صور عارية تم إنشاؤها بواسطة الذكاء الاصطناعي لطالبات.

برامج التجسس تستهدف شخصيات سياسية وصحفيين ورجال أعمال
بعد "أزمة الطنطاوي" في مصر.. كيف نحمي أنفسنا من التجسس الإلكتروني؟
يبدو أن المعركة بين شركات برامج التجسس ومؤسسات التكنولوجيا الكبرى لن تنتهي في القريب العاجل، حيث تتواصل الشكاوى من شخصيات سياسية وصحفيين وغيرهم من استخدام تلك البرامج في محاولات اختراق وتجسس بشكل غير قانوني.

وتأتي هذه الحوادث في وقت أثارت فيه برامج الذكاء الاصطناعي، ومن بينها روبوت الدردشة "تشات جي بي تي"، مخاوف من تأثيرها على الخصوصية.

وفي مارس الماضي، وجه باحثون وقادة قطاع التكنولوجيا رسالة مفتوحة يحذرون فيها من "المخاطر الجسيمة" على المجتمع والإنسانية لأنظمة الذكاء الاصطناعي.

إجراءات "غير كافية"

وتمتلك الشركات الكبرى مثل غوغل، سياسات متعلقة بمنع ظهور الصور الجنسية التي التقطت دون موافقة، من الظهور عبر محرك البحث الخاص بها، لكن وسائل الحماية من انتشار الصور المزيفة ليست قوية، بحسب واشنطن بوست.

وقال المتحدث باسم غوغل، نيد أدريانس، إن شركته "تعمل بجدية من أجل توفير مزيد من الحماية في عملية البحث"، وأنها "تمنح المستخدمين حق طلب حذف المواد الإباحية المزيفة والمنتشرة بشكل غير طوعي".

ونقلت واشنطن بوست، أيضًا عن المدير التنفيذي لمنظمة "ويتنس" المتخصصة في الدفاع عن حقوق الإنسان في المجال التكنولوجي، سام غريغوري، أن "الضغط من أجل الوصول إلى لوائح منظمة لمواد الذكاء الاصطناعي، يركز على منع الانتشار الكبير، ومواجهة المخاوف المتعلقة بإمكانية التأثير على الانتخابات الرئاسية في الولايات المتحدة، المقررة العام المقبل".

وأضاف أن تلك اللوائح "تقدم القليل فيما يتعلق بمكافحة المواد الإباحية المزيفة، حيث يتم نشر الصور ضمن مجموعات صغيرة (من الأشخاص)، ويمكنها تدمير حياة شخص ما".

وتشرح بيل، المؤثرة على يوتيوب، أنها "حتى الآن لا تعرف بالتحديد عدد الصور المزيفة المنتشرة لها على الإنترنت". وأضافت أن "هناك حاجة لقواعد منظمة قوية لمواجهة مثل هذه المشاكل".

واختتمت حديثها بالقول: "لا مساحة أمان لكِ كامرأة".

يشهد العالم سباقا نحو توظيف الذكاء الاصطناعي في تطوير الأسلحة وخوض الحروب - تعبيرية
يشهد العالم سباقا نحو توظيف الذكاء الاصطناعي في تطوير الأسلحة وخوض الحروب - تعبيرية

كشف تقرير لمجلة "ذا إيكونومست" عن سباق تسلح جديد يتعلق باستخدام الذكاء الاصطناعي في تطوير الأسلحة وفي خوض الحروب، وأشار التقرير إلى أن أدوات الذكاء الاصطناعي أسهمت بفاعلية في الحروب الحديثة.

ودلل التقرير على أن الأدوات والأسلحة التي تحتمل توظيف الذكاء الاصطناعي، جرى استخدامها على نطاق متزايد في أماكن مثل غزة وأوكرانيا، في وقت تتصاعد فيه نسبة ومعدلات الصرف على مثل تلك الأنواع من الأسلحة.

وأشار إلى أن هناك إقبالا على نظام ستورم كلاود، كأحد الأنظمة لتطوير الأسلحة وتوظيف الذكاء الاصطناعي في العمليات العسكرية، وعمليات صيانة الطائرات الحربية.

وفي المقابل، يحذر حقوقيون وقانونيون من أن توظيف واستخدام الذكاء الاصطناعي في الأسلحة سيجعل الحرب أكثر فتكا وأقل إنسانية، خاصة مع تزايد احتمال نشوب حرب بين القوى العظمى.

وباتت براعة الجيوش في الحروب تعتمد على الذكاء الاصطناعي كجزء من التقدم التكنولوجي، ما يدفع الولايات المتحدة والصين للدخول في منافسة على التفوق في هذا المجال من أجل رسم المشهد العالمي المستقبلي، بحسب مجلة "ذا ناشيونال إنترست".

ووفقا للمجلة ذاتها، رغم أن الذكاء الاصطناعي اكتسب شعبية كبيرة خلال السنوات القليلة الماضية، كانت القوى العظمى تبحث في التطبيقات العسكرية للذكاء الاصطناعي منذ عقود. ومنذ عام 2014، كانت الولايات المتحدة تعمل على بناء الأساس لدمج الذكاء الاصطناعي في جيشها.

ووجدت دراسة حديثة أجرتها مؤسسة راند، وهي مؤسسة فكرية، أن الذكاء الاصطناعي، يلعب دورا مهما في عمليات تحديث وصيانة الطائرات الحربية، وذلك من خلال التنبؤ بالوقت الذي ستكون فيه تلك الطائرات في حاجة إلى الصيانة.

وبحسب تقرير مجلة "ذا إيكونومست"، يستخدم الجيش الأميركي الخوارزميات للتنبؤ بالوقت الذي ستحتاج فيه مدافع الهاوتزر الأوكرانية إلى براميل جديدة، بينما تستخدم بعض الجيوش الذكاء الصناعي في المساعدة في تقييم وتأهيل الجنود. 

وطورت روسيا وأوكرانيا برمجيات لصنع طائرات مسيرة قادرة على التحليق إلى الهدف بشكل مستقل، حتى في حال أدى التشويش إلى تعطيل تحكم الطيار في الطائرة المسيرة.

حروب المستقبل.. الذكاء الاصطناعي سيحدد من الأقوى
باتت براعة الجيوش في الحروب تعتمد حاليا على الذكاء الاصطناعي كجزء من التقدم التكنولوجي، ما يدفع الولايات المتحدة والصين للدخول حاليا في منافسة على التفوق العالمي في هذا المجال من أجل رسم المشهد العالمي المستقبلي، بحسب مجلة "ذا ناشيونال انترست".

وتتنافس دول عدة على تطوير وتصنيع وامتلاك "الأسلحة فرط الصوتية" التي تعتمد على الذكاء الاصطناعي، والتي يمكن أن تغير قواعد اللعبة في الحروب، نظرا لقدراتها على الهجوم بسرعة، وإمكانية إطلاقها من مسافات كبيرة وامتلاكها المقدرة على التهرب من معظم وسائل الدفاع الجوي، وفقا لتقرير لصحيفة "وول ستريت جورنال"، في 16 سبتمبر الماضي.

والأسلحة "الفرط صوتية" قادرة على الهجوم بسرعة كبيرة، ويمكن إطلاقها من مسافات كبيرة والتهرب من معظم الدفاعات الجوية، ويمكنها حمل متفجرات تقليدية أو رؤوس حربية نووية.

لكن مع ذلك، يشير خبراء إلى أن التكنولوجيا وخوارزميات الاستهداف لا تزال تواجه العديد من المشاكل ذاتها التي تواجهها السيارات ذاتية القيادة، مثل الشوارع المزدحمة والأشياء الغامضة.

وفي رأي مجلة "الإيكونومست"، يستطيع الذكاء الاصطناعي معالجة ما هو أكثر من مجرد المكالمات الهاتفية أو الصور.

وتشير المجلة إلى أن البحرية البريطانية أعلنت في مارس الماضي، أن وحدة اكتشاف الألغام التابعة لها أكملت عامًا من التجارب في الخليج العربي، باستخدام قارب صغير ذاتي القيادة، يستطيع البحث عن الألغام في قاع البحر وتنبيه السفن أو الوحدات الأخرى عنها. 

وفي معظم الحالات، يقوم الذكاء الاصطناعي بتحديد إشارة وسط الضوضاء أو جسم وسط الفوضى، ويحدد ما إذا كان ذلك شاحنة أم دبابة، سفينة صيد أم غواصة، ولكن مع ذلك ربما يكون تحديد المقاتلين من البشر أكثر تعقيدا.

الذكاء الاصطناعي والأسلحة القاتلة.. لماذا يتخوف العالم من تطور "الأنظمة الذكية"؟
جاءت التحذيرات المتتالية حول مخاطر استخدام الذكاء الاصطناعي لتخليق أسلحة قاتلة، لتثير المخاوف بشأن التطور المتسارع "غير المنضبط" لتلك الأنظمة الذكية، بينما يكشف خبراء لموقع "الحرة" مدى إمكانية تحقيق هذا السيناريو في المستقبل القريب.

وفي أبريل الماضي، زعمت وسائل إعلام إسرائيلية، أن الجيش الإسرائيلي كان يستخدم أداة ذكاء اصطناعي تُعرف باسم لافندر، لتحديد آلاف الفلسطينيين كأهداف، حيث يقوم المشغلون البشريون فقط بفحص سريع لمخرجات النظام قبل الأمر بالضربات. 

لكن الجيش الإسرائيلي رد قائلاً إن لافندر "مجرد قاعدة بيانات تهدف إلى مقارنة مصادر الاستخبارات".

وينقل تقرير مجلة "ذا إيكونومست" عن كلينت هينوت، وهو جنرال أميركي متقاعد، وميك رايان، وهو جنرال أسترالي متقاعد، قولهما إن برنامج "جيس آرتا" الأوكراني، الذي يجمع البيانات عن الأهداف الروسية، لأجهزة المدفعية، "يمكنه بالفعل إنشاء قوائم بالأهداف المحتملة وفقًا لأولويات القائد".

وبحسب الجنرالين هينوت ورايان، فإن أحد أسباب تقدم روسيا في أوكرانيا في الأشهر الأخيرة هو أن أنظمة C2 الروسية تتحسن في معالجة المعلومات من الطائرات من دون طيار، وإرسالها إلى المقاتلين والأسلحة. 

وطلبت القوات الجوية الأميركية مؤخرا من مؤسسة راند تقييم ما إذا كانت أدوات الذكاء الاصطناعي يمكن أن توفر معلومات وخيارات لمقاتلة فضائية، تتعامل مع تهديد محتمل لقمر صناعي. وكانت النتيجة أن الذكاء الاصطناعي يمكنه بالفعل التوصية بإرشادات عالية الجودة. 

ويلفت تقرير مجلة "الإيكونومست" إلى أن الوكالة البحثية للبنتاغون، تعمل على برنامج للاستراتيجيات والتخطيط، لإنتاج إرشادات للقادة أثناء الحرب.

ويقول إريك ديفيس، مدير البرامج في الوكالة إن "الكثير من الأساليب التي يتم استخدامها في مشروع الاستراتيجيات والتخطيط لم تكن موجودة قبل عامين إلى خمسة أعوام". 

تقارير أثارت قلقا دوليا.. هل استخدمت إسرائيل الذكاء الاصطناعي في حرب غزة؟
تثير تقارير عن استخدام الجيش الإسرائيلي للذكاء الاصطناعي في حربها في غزة "قلقا" أمميا، من أن تصبح "قرارات الحياة والموت" مرتبطة "بحسابات تجريها الخوارزميات" على ما قال الأمين العام للأمم المتحدة، أنطونيو غوتيرش الجمعة.

ويشير خبراء قانونيون وناشطون إلى أن الدور المتزايد للذكاء الاصطناعي في الحرب محفوف بالمخاطر، إذ إن "الأنظمة الحالية لا يمكنها التعرف على النوايا العدائية للأشخاص". 

ويقول نوام لوبيل، من جامعة إسيكس الأميركية، إن "تلك البرامج لا تستطيع التمييز بين جندي قصير القامة يحمل مسدسا حقيقيا، وبين طفل يحمل مسدسا مصنوعا للترفيه واللعب، أو بين جندي جريح يرقد على بندقية، وقناص مستعد لإطلاق النار من بندقية قنص". 

ويوضح ستيوارت راسل، وهو خبير في مجال الكمبيوتر، أنه "يمكن خداع أدوات الذكاء الاصطناعي من خلال طباعة أو تصميم علامات على أشياء ليست حربية، مثل أعمدة الإنارة مثلا، لإيهام السلاح بأن هذه دبابة".

ويحذر خبراء من أخطاء الأسلحة التي تعتمد على الذكاء الاصطناعي، ويشيرون إلى أن الأخطاء التي تنتج عنها يمكن أن تكون مدمرة وفظيعة، ويطالبون بعدم إخراج الإنسان من قرار التصويب".

ونقل التقرير عن بالمر لوكي، مؤسس شركة أندوريل، إحدى الشركات المشاركة في نظام ستورم كلاود، قوله "إنه أمر مغرٍ حقا، ولكن يمكنك خرق القانون الدولي".

وأقر لوكي بأن الذكاء الاصطناعي سيكون أقل أهمية في المهمة "القذرة، والفوضوية، والفظيعة" لحرب المدن، على غرار حرب غزة".

وكان الأمين العام للأمم المتحدة، أنطونيو غوتيرش، أشار في أبريل الماضي، إلى أن التقارير التي تتحدث عن استخدام الجيش الإسرائيلي الذكاء الاصطناعي في حربه على غزة تثير "قلقا"، من أن تصبح "قرارات الحياة والموت" مرتبطة "بحسابات تجريها الخوارزميات".

وكان نص لمجلس حقوق الإنسان التابع للأمم المتحدة دان "استخدام إسرائيل أسلحة متفجرة ذات أثر واسع النطاق في مناطق غزة المأهولة" واستخدام الذكاء الاصطناعي "للمساعدة في عملية اتخاذ القرار العسكرية" باعتبار أن ذلك "قد يساهم في جرائم دولية".