الذكاء الاصطناعي استخدم بكثرة لإنتاج محتوى زائف خلال حرب غزة
الذكاء الاصطناعي استخدم بكثرة لإنتاج محتوى زائف خلال حرب غزة

تشكل الحرب الجارية بين إسرائيل وحماس في قطاع غزة، وما يتخللها من معارك تأثير واستقطاب وتلاعب بالرأي العام، أحدث ميادين الاختبار للدور الذي تلعبه الأخبار الزائفة وحملات التضليل في تشكيل الروايات والسرديات بشأن أحداث الحرب، والمآسي الناجمة عنها، فضلاً عن التلاعب بانطباعات المتابعين وعواطفهم.

ويشكل هذا تحديا أساسيا اليوم بالأخص، مع تقدم برمجيات الذكاء الاصطناعي. 

وعلى الرغم من الدور الذي سبق ورُصد لتلك التقنيات في تزييف الواقع وبث المعلومات المضللة خلال أزمات سابقة شهدها العالم، كزلازل تركيا والمغرب وكارثة ليبيا فضلاً عن الحرب الروسية على أوكرانيا، تشهد الحرب بين إسرائيل وحماس اليوم، التجلي الأبرز والأحدث، والاستثمار الأوسع لتقنيات الذكاء الاصطناعي في وسائل التواصل الاجتماعي، ومحاولة التأثير على الرأي العام. 

هذا الواقع يضع العالم الآن وجها لوجه مع تحقق أبرز المخاوف التي طالما أحاطت باستخدام الذكاء الاصطناعي، من ناحية قدرته على تزييف الواقع، ومدى الإقناع الذي قد يتمتع به، وتالياً مدى التأثير، وهو ما بلغ مؤخرا مرحلة جعلت العاملين في مجال تدقيق المعلومات ومحاربة الأخبار المضللة في حالة من العجز والتخبط، في مجاراة سوء استخدام الذكاء الاصطناعي في التضليل.  

"أكبر مما يمكن توقعه" 

مئات الصور والقصص والأخبار والمعلومات المزيفة، اجتاحت على مدى شهرين من الحرب مواقع التواصل الاجتماعي، واكتسبت انتشارا عالميا مرتبطا بالمتابعة الواسعة لمجريات النزاع الذي اندلع في السابع من أكتوبر، عقب هجوم حماس على إسرائيل.  

وكان أمرا متوقعا، بالنسبة لمدققي المعلومات، الذين اعتادوا على ازدياد منسوب الأخبار الزائفة وحملات التضليل في أوقات الأزمات والحروب، حيث يتسنى لها عبور أسهل في زحمة الأخبار وكثافة المعلومات، بحسب ما يؤكد الصحفي ومدقق المعلومات في منصة "صواب" العاملة على مكافحة الأخبار الزائفة، ميغال حدشيتي.

ويقول إنه في وقت الأزمات والحروب "تصبح هذه الأخبار تفاصيل في المشهد العام، لا قدرة على التوقف عندها وتدقيقها بصورة كاملة".

وكانت هذه الإساءة في استخدام تقنيات وأدوات الذكاء الاصطناعي متوقعة منذ إنشائها، بحسب ما تؤكد سجى مرتضى، مديرة الشبكة العربية لمدققي المعلومات من فريق  أريج، "لكن أحداً لم يكن يتخيل أن تصل الأمور إلى هذا الحد".  

وتضيف في حديثها لموقع "الحرة"، أن "الحرب في غزة جاءت لتبين هذا الأمر بشكل أوضح، وتثبت أن الآثار السلبية للذكاء الاصطناعي بما يخص انتشار المعلومات الخاطئة والمضللة، يمكن أن تكون أكبر مما يمكن توقعه".

ولا يزال من المبكر حتى الآن، بحسب مرتضى، تحليل وتقييم التجربة الجارية حالياً، "بحكم أنها ما زالت مستمرة مع تواصل الأزمة، ونحتاج إلى وقت لكشف التأثير الحقيقي الذي تركته تلك الأخبار وحملات التضليل التي اعتمدت على الذكاء الاصطناعي".  

لكن ما يمكن تأكيده وفق الخبيرة في تدقيق المعلومات، هو أن ما يجري في الحرب المندلعة، "تخطى استخدام الذكاء الاصطناعي من قبل شركات التكنولوجيا والإعلام والتواصل الاجتماعي، في سبيل التحكم بالسرد والمحتوى، بل بات هناك إنتاج ممنهج للمواد المزيفة باستخدام الذكاء الاصطناعي وبتقنيات عالية، تنخرط فيه جهات حكومية ورسمية وعسكرية".  

عجز وتخبط  

أبرز أشكال التزييف كانت الصور والفيديوهات، بعضها صدّقها الناس بشكل كبير جدا، فيما كان التلاعب في بعضها الآخر واضحا فلم ينطل الأمر على الناس بصورة واسعة.

ولكن هناك صور استخدمت وانتشرت، ترى مرتضى أنه "عجزنا حتى عن الوصول إلى نتيجة حاسمة بشأنها، إذا ما كانت منتجة بالذكاء الاصطناعي أم لا، حيث أن التقنيات المستخدمة كانت عالية الدقة بشكل يمنع كشفها بسهولة".

وفي مثال على تلك المواد، كانت الصورة التي نشرها رئيس الوزراء الإسرائيلي، بينيامين نتانياهو، وقال إنها تعود لطفل اسرائيلي أحرقه مسلحو حماس خلال هجومهم، حيث كانت، بحسب مرتضى، موضع تدقيق من قبل الفريق، إضافة إلى الكثير من مؤسسات التدقيق العربية والعالمية.  

وفي هذا السياق، جرى استخدام عدة أدوات لكشف ما إذا كانت الصور مولَّدة بالذكاء الاصطناعي، بحسب مرتضى، التي أضافت: "بعضها كان يقدم نتيجة إيجابية وبعضها لا، حاولوا تحليل الصورة قدر المستطاع، لكنهم لم يصلوا إلى الصورة الأصلية. حسم النتيجة كان أمرا صعبا جدا، ولم يحصل حتى الآن. ومثلها كان هناك بعض المحتوى الذي صعُب كشفه بصورة حاسمة".

في المقابل، كانت هناك صور سهلة الكشف، مثل صورة لما قيل إنه "مخيم إسرائيلي للنازحين". وفي هذا الصدد قالت مرتضى: "مع ذلك كثيرون صدقوها، لكن كشفها كان سهلا ومحسوما بأنها مصنَّعة بالذكاء الاصطناعي".

وأدى تطور أدوات الذكاء الاصطناعي المخصصة لإنتاج الصور والفيديوهات، إلى جعلها أقرب في كل مرة من الحقيقة، وصعّب من عملية كشفها أو تبيان مصدرها، إذا ما كان بشرياً أو عبر الذكاء الاصطناعي، وهو ما بات مشكلة حقيقية يعاني منها مدققو المعلومات، بحسب ما يؤكد حدشيتي في حديثه لموقع "الحرة".  

يأتي ذلك في وقت يفتقد مدققو المعلومات، لاسيما في الدول العربية، إلى البرامج والأدوات التي يمكن استخدامها عبر الإنترنت للتبين من حقيقة الصور المنتشرة ومصدرها، خاصة بعدما باتت الأدوات التقليدية المستخدمة في عمليات التدقيق والتحقق غير نافعة أمام المحتوى الذي يولده الذكاء الاصطناعي. 

في هذا السياق يشرح حدشيتي، أن "الصور المزيفة المنتجة عبر أدوات الذكاء الاصطناعي، على سبيل المثال، تعتبر جديدة، فلا بصمة إلكترونية سابقة لها يعتمد عليها للكشف عن تاريخها وسياقها ومصدرها، كما كان الحال مع الأساليب التقليدية للأخبار المزيفة التي تستخدم الصور القديمة في غير سياقاتها أو يجري التعديل عليها". 

ويضيف أنه "في السابق عادة ما كان يتم التحقق من الصور عبر خدمات تقدمها محركات البحث مثل غوغل.. أما اليوم فأصبح الأمر معضلة تمنع التحقق التام والأكيد من الصور المولدة بالذكاء الاصطناعي". 

ويواجه المدققون حالة من التخبط في الاعتماد الموثوق على التقنيات والمعايير المستخدمة والمتوفرة حاليا لكشف التزييف، مما يزيد من مسؤولياتهم وحجم عملهم وصعوبة مهمتهم، خاصة أن تقنيات التزييف المعتمدة تتجه لتكون "أكثر إقناعا يوما بعد يوم"، وفقا لحدشيتي.  

وسبق لدراسة أجراها معهد ماساتشوستس للتكنولوجيا، أن أظهرت أن "الأخبار الزائفة تنتشر بمعدل 6 مرات أسرع من القصص الحقيقية، إذ ترتفع احتمالية إعادة تداول الأخبار غير الحقيقية بنسبة تزيد عن 70 في المئة". 

صورة للوغو تطبيق شات جي بي تي
تشويه سمعة ومعلومات مغلوطة.. هل يتحول الذكاء الاصطناعي لمصنع شائعات؟
بداية من اتهامات ملفقة بالتحرش، مرورا بتشويه سمعة بعض الناس، ختاما بتزييف حقائق ووقائع تاريخية، شهدت الفترة الماضية عدة وقائع كان بطلها الجانب المظلم من برامج الذكاء الاصطناعي، بينما يتوقع خبراء تحدث معهم موقع "الحرة" إمكانية تحول تلك التطبيقات إلى ساحة مستقبلية لنشر الشائعات والأكاذيب.

منظومة متكاملة.. تصعُب مجاراتها 

وفي ظل التدفق الهائل للأخبار والمعلومات الزائفة في سياق الحرب، باتت عملية التحقق والتدقيق اليدوية أو البشرية خصوصاً معوّقة بصورة كبيرة، ولا تتناسب مع حجم المواد المنتشرة.

فمهما بلغ حجم التدقيق والمدققين والعاملين في هذا المجال، لا يزال الذكاء الاصطناعي، وفق حدشيتي، قادراً على الإنتاج بغزارة تفوق القدرات البشرية على التدقيق.  

ويزداد الأمر صعوبة نتيجة عدم اقتصار دور الذكاء الاصطناعي على توليد المحتوى، بل يمتد إلى ترويجه ونشره على نطاق واسع وبشكل تلقائي على مواقع التواصل، عبر أدوت أخرى (بوتات) تشكل بدورها أداة من أدوات الذكاء الاصطناعي.  

وبذلك يكون الذكاء الاصطناعي اليوم قادراً على إنتاج قصة مكتوبة، مع صور ومقاطع مناسبة ومرتبطة تعزز الثقة بالقصة، ثم يتولى نشرها والترويج لها، مما يحوله بحسب حدشيتي إلى "منظومة إعلامية كاملة وقائمة بحد ذاتها، يمكن أن تشن حملة تزييف وتضليل بمجرد تلقيها طلباً بذلك، وبالتالي تصبح عملية التزييف آلية بصورة كاملة". 

وبالنسبة للمتابع العادي، فإنه من الصعب عليه أن يتأكد من الأخبار المزيفة بواسطة الذكاء الاصطناعي، لاسيما مع عدم توفر الثقافة الكافية والوعي الإعلامي والتقني لدى شريحة واسعة من الجمهور للتعامل مع ذلك المحتوى، مما يعرضهم بصورة أوسع للانخداع والتضليل.  

ورغم تواجد العديد من المواقع التي توفر أدوات التأكد من مصدر الصور وإذا ما كانت مولدة بالذكاء الاصطناعي من عدمه، إلا أن ضعف تلك التقنيات يجعل من الصعب الاعتماد عليها أو نصح الناس باللجوء إليها كمصدر حاسم، بحسب حدشيتي، الذي يؤكد أنه ما عادت هناك نصائح محددة يمكن تقديمها للمتابعين كثوابت وخطوات للتحقق الأكيد.  

بدورها، تلفت مرتضى إلى أن "عدم معرفة الناس، وكذلك الصحفيين ومدققي المعلومات، بكيفية عمل الذكاء الاصطناعي الذي يعتبر مجالاً حديثاً وواسعاً، مما يزيد بصورة كبيرة من خطورة هذا الواقع".  

ورغم كل التقدم التقني الذي تحققه أدوات الذكاء الاصطناعي، يلفت حدشيتي إلى أن استخدام التزييف العميق "لا يزال أقل من غيره من الأساليب ومحصور بحالات محددة، كشفها متاح وسهل نسبيا".

ويتابع: "لكن نستطيع التأكيد أننا مقبلون على مرحلة يكون فيها الأمر منتشراً على نطاق أوسع وبالسهولة نفسها للتزييف الذي نراه اليوم، فيما سيزداد كشفه صعوبة وتحديا".  

ولا يزال المنطق البشري "المعيار الأجدى"، بحسب مدققي المعلومات، للتعرف على الصور والمقاطع المزيفة، والتي تقوم على دراسة المحتوى ومراقبته بدقة لكشف السقطات التي لا يزال الذكاء الاصطناعي يقع بها خلال عملية توليد المحتوى، كالتشوهات غير المنطقية في الصور، وتبدد الملامح البشرية، وعدم تناسق الظلال مع مصدر الضوء، ودمج الأجسام والخلفيات والكتابات الظاهرة في الصور.  

إلا أن التحدي يبقى في القدرة على المجاراة، حيث إن إنتاج المادة المزيفة قد يتطلب ثوان معدودة من الذكاء الاصطناعي، في حين أن التأكد منها بشرياً يستغرق وقتا أطول بكثير لكشفها والتحقق منها بصورة حاسمة.  

الضوابط الأخلاقية.. أساس الحل 

على الرغم من حجم المأساة الكبيرة في غزة، والتي ينتج عنها الكثير من المحتوى المؤلم والصادم من صور ومشاهد مروعة بما فيه الكفاية، لا يزال الذكاء الاصطناعي يستخدم بصورة أساسية في إنتاج محتوى يتمحور حول هذه المأساة، ويسعى لإظهارها بصورة أكثر إيلاماً.

وتعتبر مديرة مشروع "الشبكة العربية لمدققي المعلومات"، أن هذا يحدث "لمحاولة إثارة عواطف الناس بصورة أكبر، وزيادة المشاعر الإنسانية السلبية، أو من أجل تصيّد المتابعات والمشاهدات".

وتستطرد: "أو يتم ذلك من خلال المؤسسات الحكومية والعسكرية التي تبث حملات تضليلية ممنهجة، وغالباً ما ينساق الناس بإعادة نشر وترويج هذا المحتوى على سبيل التعاطف أو قلة الدراية".  

وإذ تشدد مرتضى على أنه ما من شيء يمنع أي شخص حول العالم من استخدام أدوات الذكاء الاصطناعي وإنشاء الصور والفيديوهات بحرية تامة، فإنها تلفت إلى "ضرورة انتهاج الشفافية تجاه هذا المحتوى، من خلال توضيح مصدره عند النشر، وأنه عبارة عن محتوى تعبيري وليس أصليا، منتج عبر أدوات الذكاء الاصطناعي".  

"هذه الشفافية ليست متوفرة اليوم في خضم الحرب الجارية"، بحسب ما تؤكد مرتضى، التي "تأسف لانعدام الشفافية لدى كثير من المؤثرين والصحفيين والمؤسسات الإعلامية".  

ولا يزال التعامل مع الذكاء الاصطناعي من قبل الأفراد والمؤسسات على حد سواء، في مرحلة الاستكشاف، فبحسب الخبيرة في تدقيق المعلومات "حتى المؤسسات الصحفية الكبرى مثل أسوشيتد برس ونيويورك تايمز وواشنطن بوست، ما زالت تقول إنها في مرحلة اختبار واستكشاف لهذه الأدوات، لتحديد ما هو المفيد منها وما هو غير مفيد، وهذه نقطة أساسية جداً."  

إلا أن المزيد من التعمق في هذا المجال، يثبت، بالنسبة لمرتضى، أن الحاجة الأساسية "تكمن في تحديد المعايير الأخلاقية في التعامل مع هذه الأدوات، خاصة في السياق الإعلامي".

وتضيف: "مستوى الضرر الذي يمكن أن يتسبب به الذكاء الاصطناعي كبير جداً، إن كان على صعيد التحيز أو نشر المعلومات الخاطئة أو على صعيد خصوصية البيانات والشفافية ومدى ثقة الجمهور بالإعلام في المستقبل، بسبب استخدام الذكاء الاصطناعي".  

وتتابع: "وعليه يتوجب على أية مؤسسة إعلامية تستخدم الذكاء الاصطناعي في إنتاج المحتوى، أن تكون قد وضعت قواعد ومعايير أخلاقية واضحة.. ما المسموح وما الممنوع وما شروط الاستخدام".

وبحسب مرتضى، فإن "هناك مؤسسات بنت هذه القواعد، لكن للأسف هذا الأمر غير معمول به في أغلب وسائل الإعلام العربية، مما يجعل استخدام الذكاء الاصطناعي عشوائي جدا وغير خاضع لأي معيار أخلاقي، وهو سبب رئيسي بما نشهده اليوم".

أداة مكافحة 

وكانت شركات التكنولوجيا قد عقدت آمال عريضة على إمكانية مواجهة الأخبار الزائفة باستخدام تقنيات الذكاء الاصطناعي، خاصة بعد الانتخابات الأميركية عام 2016، حيث أعلنت شركات مثل غوغل وفيسبوك وتويتر (في حينها) عن اتخاذ إجراءات لمكافحة انتشار الأخبار الزائفة، وإطلاق برامج وأدوات مشغلة عبر الذكاء الاصطناعي من أجل الحد منها.  

آمال لا تزال معقودة بالدرجة نفسها حتى اليوم على الذكاء الاصطناعي، لكي يكون تقنية مفيدة في مكافحة التضليل والتزييف، وهذا ما تؤكد عليه مرتضى، أن "جانباً إيجابياً للذكاء الاصطناعي يمكن أن يتم استثماره إذا تم تطوير أدوات فعالة للتحقق، وهو الأمر الذي لا يزال يحتاج إلى وقت حتى يصبح صالحاً للاعتماد عليه".  

و"في ظل غياب شبه تام للأدوات المعتمدة على الذكاء الاصطناعي الداعمة للغة العربية، بما يشكل نقطة ضعف في رصد وتدقيق المحتوى العربي المزيف والمضلل، تعمل الشبكة العربية لمدققي المعلومات، على تطوير بعض الأدوات من ناحية، وتعريب أدوات أخرى من ناحية ثانية (أداة "فول فاكت") بشكل كامل، وتقديمها لمؤسسات التدقيق في الدول العربية، مما سيسهل التدقيق، وسيجعل نحو 50 في المئة من العمل يتم بصورة آلية بدلاً من الآلية اليدوية، مما سيوفر وقتاً كبيراً خاصة في فترة الأزمات"، وفق مرتضى.  

يذكر أن خبراء سبق أن أكدوا في تقرير لصحيفة "نيويورك تايمز" الأميركية، أن تطبيقات الذكاء الاصطناعي التوليدي يمكن أن تجعل إنتاج "المعلومات المضللة أرخص وأسهل"، خاصة للمتخصصين في نشر "نظريات المؤامرة". 

جائحة معلومات مضللة انتشرت مع جائحة كورونا. أرشيفية - تعبيرية
سلاح ذو حدين.. مخاوف من "جائحة الأخبار الزائفة" مع تطور الذكاء الاصطناعي
تحتفى منظمة الصحة العالمية الجمعة باليوم العالمي للصحة والذي يصادف أيضا مرور 75 عاما على تأسيسها، وبعد أن تعاملت المنظمة مع تحديات كبيرة في ظل جائحة كورونا خلال العامين الماضيين، إلا أنها الآن أمام جائحة من نوع آخر ترتبط في "المعلومات الخاطئة".

وتنقسم الأخبار الزائفة إلى نوعان، الأول يسمى "معلومات مضللة" ( Disinformation)، وهي إنشاء أو مشاركة معلومات خاطئة بشكل متعمد من أجل التضليل، والثاني "معلومات خاطئة" ( Misinformation) والتي تنطوي على مشاركة معلومات أو تقارير من دون معرفة أنها خاطئة. 

وأيّد هذه المخاوف ما أعرب عنه باحثون من شركة "أوبن أيه أي" التي طورت "تشات جي بي تي"، إذ عبروا في ورقة بحثية صدرت عام 2019، عن قلقهم من "قدرات هذه التطبيقات على خفض تكاليف حملات التضليل.. والتي قد تستخدم لتحقيق مكاسب مالية أو للوصول إلى أجندة سياسية معينة، أو الرغبة في خلق الفوضى والارتباك". 

وأكد الخبراء للصحيفة، أن روبوتات الدردشة قد "تشارك نظريات المؤامرة بطريقة أكثر مصداقية وإقناعا، بتقليل الأخطاء البنيوية أو الترجمات الخاطئة"، مشيرين إلى أنه لا يوجد "تكتيكات متاحة لرصدها بشكل فعال".

وخلصوا إلى أنه "لا توجد آلية واضحة من شأنها إلغاء التهديدات التي أوجدتها" روبوتات الذكاء الاصطناعي التوليدي. 

أعلنت إدارة  بايدن حظر بيع برمجيات مكافحة الفيروسات التي تنتجها شركة كاسبرسكي لاب الروسية.
أعلنت إدارة بايدن حظر بيع برمجيات مكافحة الفيروسات التي تنتجها شركة كاسبرسكي لاب الروسية.

قال الكرملين، الجمعة، إن القرار الأميركي بحظر مبيعات برمجيات كاسبرسكي لمكافحة الفيروسات هو تحرك نمطي من واشنطن لـ "سحق" المنافسة الأجنبية مع المنتجات الأميركية.

وأعلنت إدارة الرئيس الأميركي، جو بايدن، الخميس، أنها ستحظر بيع برمجيات مكافحة الفيروسات التي تنتجها شركة كاسبرسكي لاب الروسية في الولايات المتحدة، وعزت ذلك إلى ما قالت إنه نفوذ الكرملين على الشركة، ما يشكل خطرا أمنيا كبيرا.

وذكرت وزيرة التجارة الأميركية، جينا رايموندو، للصحفيين أثناء إعلانها الحظر أن "روسيا أظهرت أن لديها القدرة... والنية لاستغلال الشركات الروسية مثل كاسبرسكي لجمع المعلومات الشخصية للأمريكيين واستخدامها كسلاح".

وقال المتحدث باسم الكرملين، دميتري بيسكوف، إن شركة كاسبرسكي شركة "تنافسية جدا" في الأسواق الدولية، وإن قرار واشنطن تقييد مبيعاتها هو "أسلوب الولايات المتحدة المفضل للمنافسة غير العادلة".

وصرحت كاسبرسكي بأنها ستسلك السبل القانونية لتحاول الحفاظ على عملياتها. وقالت إنها تعتقد أن القرار الأميركي لم يستند إلى "تقييم شامل لنزاهة منتجات وخدمات كاسبرسكي" وإن أنشطتها لا تهدد الأمن القومي الأميركي.

وتقول الشركة إن القطاع الخاص يديرها وليس لها أي صلات بالحكومة الروسية.

ويقع المقر الرئيسي لشركة كاسبرسكي، أحد أشهر صانعي برامج مكافحة الفيروسات في مجال الأمن السيبراني، في موسكو، وقد أسسها ضابط المخابرات الروسي السابق يوجين كاسبرسكي.