96% من مواد "التزييف العميق" كانت إباحية و99% منها تستهدف النساء
96% من مواد "التزييف العميق" كانت إباحية و99% منها تستهدف النساء

كشف تقرير لصحيفة "واشنطن بوست" الأميركية، عن انتشار هائل لاستخدام أدوات الذكاء الاصطناعي في نشر "صور العري"، مما يهدد النساء وخصوصا المراهقات حول العالم، في ظل عدم توصل أغلب دول العالم حتى الآن لقوانين حاكمة ومنظمة لتلك الأدوات.

ويمكن لبرنامج يعمل بالذكاء الاصطناعي، أن يصنع صورا عارية بناء على تحليلات للصور العادية المنشورة على مواقع التواصل الاجتماعي، مما يجعل تبدو وكأنها حقيقية بدرجة كبيرة ومتناسقة.

وسلطت الصحيفة الأميركية الضوء على المؤثرة على يوتيوب، غابي بيل (26 عاما)، التي شعرت بصدمة كبيرة عندما علمت أن صورة عارية لها انتشرت على الإنترنت، كونها لم تنشر أي صور مماثلة، لتدرك أنها مزيفة.

,أشارت واشنطن بوست، إلى أن بيل حاولت حذف الصورة، لكن زميلها الذي لجأت إليه قال لها إن هناك "حوالي 100 صورة مزيفة لها منتشرة على الإنترنت، وجميعها لها مصدر واحدK وهي تطبيقات تعمل بالذكاء الاصطناعي".

"انتشار واسع"

وأضاف التقرير أن العام الحالي شهد انتشارا واسعا لمواد العري المفبركة عبر الإنترنت، سواء صور أو مقاطع فيديو، وذلك في ظل وجود أدوات ذكاء اصطناعي رخيصة الثمن وسهلة الاستخدام، يمكنها "تعرية" الصور العادية لأي شخص أو وضع وجهه على فيديو لأشخاص آخرين بتقنية "ديب فيك – Deepfake" (التزييف العميق).

ونقلت الصحيفة عن المحللة في مجال الذكاء الاصطناعي، جينيفيف أوه (Genevieve Oh)، قولها إن "المواقع الـ10 الأولى التي تنشر صورا إباحية، شهدت زيادة بنسبة 290 بالمئة منذ عام 2018، في ظل انتشار الصور الإباحية المزيفة".

ومن المشاكل التي تواجه الضحايا هنا، هو عدم وجود قانون فيدرالي في الولايات المتحدة للتعامل مع مثل هذه الأدوات الجديدة. وبحسب "واشنطن بوست"، فإن "ولايات قليلة جدا هي من صنعت لوائح منظمة".

كما أن الأمر التنفيذي الأخير للرئيس الأميركي جو بايدن، "يوصي فقط ولا يجبر شركات التكنولوجيا على وضع إشارة إلى أن الصور أو مقاطع الفيديو أو الصوت تم صناعتها بالذكاء الاصطناعي".

وقالت أستاذة القانون في جامعة سان فرانسيسكو، تيفاني لي، لواشنطن بوست: "إننا نواجه مشكلة خطيرة جدا"، محذرة مثل أساتذة قانون آخرين من أن "صور الذكاء الاصطناعي المزيفة لا تخضع لقوانين حقوق الملكية الفكرية في ظل التشابه الكبير بينها، نظرا لأنها تعتمد بالأساس على مجموعة بيانات متاحة لملايين الصور بالفعل".

وبالعودة إلى أزمة تزييف الصور العارية للمراهقات والنساء، أشارت دراسة عام 2019 لشركة "سينسيتي" للذكاء الاصطناعي والمخصصة في رقابة المقاطع المزيفة، إلى أن "96 بالمئة من مواد التزييف العميق كانت إباحية، و99 بالمئة منها تستهدف النساء".

واقعة إسبانيا

وفي سبتمبر الماضي، هزت أزمة كبرى بلدة ألمندراليخو الصغيرة الواقعة جنوبي إسبانيا، بعد تداول صور عارية لفتيات صنعت بواسطة الذكاء الاصطناعي، وبدأت الشرطة تحقيقا في القضية.

وأوردت صحف إسبانية وبريطانية، آنذاك، أن الشرطة فتحت تحقيقا بعد إبلاغ أمهات بتداول صور، تم تعديلها بواسطة الذكاء الاصطناعي، لأكثر من 20 فتاة في البلدة التي يبلغ عدد سكانها نحو 30 ألف شخص، في مقاطعة بداخوث.

وتضم ألمندراليخو 5 مدارس متوسطة، وفي 4 منها على الأقل انتشرت صور عارية تم إنشاؤها بواسطة الذكاء الاصطناعي لطالبات.

برامج التجسس تستهدف شخصيات سياسية وصحفيين ورجال أعمال
بعد "أزمة الطنطاوي" في مصر.. كيف نحمي أنفسنا من التجسس الإلكتروني؟
يبدو أن المعركة بين شركات برامج التجسس ومؤسسات التكنولوجيا الكبرى لن تنتهي في القريب العاجل، حيث تتواصل الشكاوى من شخصيات سياسية وصحفيين وغيرهم من استخدام تلك البرامج في محاولات اختراق وتجسس بشكل غير قانوني.

وتأتي هذه الحوادث في وقت أثارت فيه برامج الذكاء الاصطناعي، ومن بينها روبوت الدردشة "تشات جي بي تي"، مخاوف من تأثيرها على الخصوصية.

وفي مارس الماضي، وجه باحثون وقادة قطاع التكنولوجيا رسالة مفتوحة يحذرون فيها من "المخاطر الجسيمة" على المجتمع والإنسانية لأنظمة الذكاء الاصطناعي.

إجراءات "غير كافية"

وتمتلك الشركات الكبرى مثل غوغل، سياسات متعلقة بمنع ظهور الصور الجنسية التي التقطت دون موافقة، من الظهور عبر محرك البحث الخاص بها، لكن وسائل الحماية من انتشار الصور المزيفة ليست قوية، بحسب واشنطن بوست.

وقال المتحدث باسم غوغل، نيد أدريانس، إن شركته "تعمل بجدية من أجل توفير مزيد من الحماية في عملية البحث"، وأنها "تمنح المستخدمين حق طلب حذف المواد الإباحية المزيفة والمنتشرة بشكل غير طوعي".

ونقلت واشنطن بوست، أيضًا عن المدير التنفيذي لمنظمة "ويتنس" المتخصصة في الدفاع عن حقوق الإنسان في المجال التكنولوجي، سام غريغوري، أن "الضغط من أجل الوصول إلى لوائح منظمة لمواد الذكاء الاصطناعي، يركز على منع الانتشار الكبير، ومواجهة المخاوف المتعلقة بإمكانية التأثير على الانتخابات الرئاسية في الولايات المتحدة، المقررة العام المقبل".

وأضاف أن تلك اللوائح "تقدم القليل فيما يتعلق بمكافحة المواد الإباحية المزيفة، حيث يتم نشر الصور ضمن مجموعات صغيرة (من الأشخاص)، ويمكنها تدمير حياة شخص ما".

وتشرح بيل، المؤثرة على يوتيوب، أنها "حتى الآن لا تعرف بالتحديد عدد الصور المزيفة المنتشرة لها على الإنترنت". وأضافت أن "هناك حاجة لقواعد منظمة قوية لمواجهة مثل هذه المشاكل".

واختتمت حديثها بالقول: "لا مساحة أمان لكِ كامرأة".

وكلاء الذكاء الاصطناعي

في عالم يتسابق باتجاه التحول الرقمي الكامل، لم يعد الذكاء الاصطناعي خيالا علميا، بل محركا صامتا يعيد تشكيل وجودنا في العمل وفي التفاعل الاجتماعي وأنماط العيش.

 من الصوت داخل هاتفك، إلى الروبوت على خط الإنتاج، أصبح وكلاء الذكاء الاصطناعي جزءا أساسيا من حياتنا اليومية.

من هم هؤلاء الوكلاء؟ 

كيف يعملون؟ 

ولماذا التحذيرات من أننا قد نفقد السيطرة عليهم؟

وكيل الذكاء الاصطناعي

افترض أنك تستيقظ صباحا وتطلب من هاتفك ترتيب جدول أعمالك، أو أن تقودك سيارتك إلى العمل بينما تتصفح أنت كومبيوترك اللوحي، أو أن يقترح عليك تلفزيونك الذكي مشاهدة فليم يناسب مزاجك.

هذه المهام تعتمد كلها على وكلاء الذكاء الاصطناعي.

في اللغة الرقمية، وكيل الذكاء الاصطناعي هو نظام برمجي ذكي قادر على إدراك البيئة المحيطة، وتحليل البيانات، واتخاذ قرارات لتحقيق أهداف محددة، وغالبا دون تدخل بشري مباشر. 

مرة أخرى، يمكن أن يكون الوكيل مساعدا صوتيا مثل "سيري" أو "أليكسا"، أو نظام تخصيص "أو توصيات" مثل نتفليكس وأمازون، أو روبوتا صناعيا يعمل على خطوط الإنتاج.

يتفاعل بعض الوكلاء مع المحفزات الآنية، بينما يعتمد البعض الآخر على أهداف محددة أو قرارات مبنية على تعظيم الفائدة. وهناك من يتعلم باستمرار من تجاربه — ليحسن أداءه مع الوقت.

مشهد الابتكار... والقلق

يوفر الذكاء الاصطناعي إمكانات هائلة. ففي التصنيع، تعمل الروبوتات بدقة وكفاءة. في الطب، تساعد الأنظمة الذكية في التشخيص. وفي عالم الأموال، تقود أنظمة الكشف عن الاحتيال وتقدم مقترحات بشأن الاستثمارات.

يساهم وكالاء الذكاء الاصطناعي في، زيادة الإنتاجية، وتقليل التكاليف التشغيلية، ودعم اتخاذ قرارات أكثر ذكاء، وفي تقديم خدمات يمكن توسيعها وتكييفها.

لكن فوائد الوكلاء تسير يدا بيد مع مخاطر موازية. يمكن التلاعب بوكلاء الذكاء الاصطناعي أو اختراقهم. وقد يرثون الانحياز البشري بناء على بيانات غير موضوعية. ويمكن أن يؤدي الإفراط في الاعتماد على الوكلاء إلى تآكل المهارات البشرية الأساسية. 

والأسوأ، إن لم نضبطهم بشكل صحيح، قد يتصرفون بطريقة مفاجئة وربما ضارة.

تحذير الأب الروحي

"أسرع مما توقعه كثيرون،" يقول جيفري هينتون، المعروف بـ"الأب الروحي للذكاء الاصطناعي،" الحائز على جائزة نوبل، في مقابلة مع شبكة CBS News، تعبيرا عن قلقه من سرعة تطور وكلاء الذكاء الاصطناعي.

"علينا أن نبدأ الآن في التفكير بكيفية تنظيم هذه الأنظمة،" يضيف، "الخطر لا يقتصر على استبدال الوظائف، بل يشمل إمكانية أن تتجاوز قدراتنا الفكرية".

وأشار إلى هينتون إلى أن بعض أنظمة الذكاء الاصطناعي بدأت باتخاذ قرارات ذاتية دون رقابة بشرية، وذكر تطبيقات عسكرية واستخدامات مثيرة للجدل مثل اختيار الأجنة.

ويحذر هينتون من أن القوانين الخاصة بالذكاء الاصطناعي غير كافية حتى الآن، وخطيرة.

التحدي الأكبر: السيطرة

الخوف لم يعد نظريا فقط. فبعض النماذج الحالية قادرة على التعلم الذاتي وحل المشكلات بشكل مستقل ما يعقد محاولات السيطرة عليها.

وفي الحديث عن علاقتنا بالذكاء الاصطناعي، يبرز سؤال أساسي : هل يمكننا ضمان توافق هؤلاء الوكلاء مع القيم الإنسانية؟ وماذا إذا لم نتمكن من ذلك؟

تبقى المخاطر باهظة الكلفة. إذ يؤدي غياب التوافق الأخلاقي إلى مراقبات جماعية، ونشر معلومات مضللة، بما يهدد السلامة العامة والديمقراطيات في الدول الديمقراطية. 

ويزعم نقاد الآلة أن الشركات الكبرى تنشر نماذج قوية دون رقابة كافية، وتُفضل الربح على السلامة العامة.

الموازنة بين التقدم والأخلاق

وللمضي في هذا المسار، يدعو خبراء إلى تأسيس أطر تنظيمية عالمية تتضمن المبادئ الأخلاقية والشفافية والمساءلة لتطوير وكلاء الذكاء الاصطناعي.

ويرى الخبراء ألا غنى عن السياق الثقافي. ففي بعض المجتمعات، قد تلعب قيم راسخة في خلق فجوة في الوعي الرقمي. لذلك، لا يكفي التطور التقني، بل يتطلب أيضا بناء الثقة المجتمعية.

الطريق إلى الأمام

الذكاء الاصطناعي سيف ذو حدين. إنه مفتاح لحل بعض أعقد مشكلات البشرية، إذا تمت إدارته بحكمة.

ومع تزايد المخاوف بشأن استقلالية وكلاء الذكاء الاصطناعي، تصبح الحاجة لتطويرهم وتوجيههم أكثر إلحاحا.