"ميتا" ليس لديها على ما يبدو أي قواعد خاصة بالذكاء الاصطناعي
"ميتا" ليس لديها على ما يبدو أي قواعد خاصة بالذكاء الاصطناعي

قال متحدث باسم شركة "ميتا"، مالكة فيسبوك، إنها ستمنع المعلنين السياسيين من استخدام منتجاتها الإعلانية الجديدة التي تعمل بالذكاء الاصطناعي التوليدي، الأمر الذي سيعيق وصول الحملات إلى أدوات يحذر المشرعون من أنها قد تزيد من سرعة انتشار المعلومات المغلوطة عن الانتخابات. 

ولم تكشف "ميتا" بعد عن القرار في أي تحديث لمعاييرها الإعلانية، والتي تحظر الإعلانات ذات محتوى يكشف شركاؤها في مجال تقصي الحقائق زيفه. 

و"ميتا" ليس لديها على ما يبدو أي قواعد خاصة بالذكاء الاصطناعي.

وتأتي هذه السياسة بعد شهر من إعلان "ميتا"، ثاني أكبر منصة للإعلانات الرقمية في العالم، أنها بدأت في توسيع نطاق وصول المعلنين إلى أدوات الإعلان المدعومة بالذكاء الاصطناعي والتي يمكنها إنشاء خلفيات وتعديلات للصور وأشكال مختلفة من الإعلان بمجرد طلب ذلك كتابة.

ولم تتح الشركة هذه الأدوات في البداية إلا لمجموعة صغيرة من المعلنين اعتبارا من فصل الربيع. 

وقالت الشركة في ذلك الوقت إنها في طريقها لطرحها لجميع المعلنين على مستوى العالم بحلول العام المقبل.

وتتسابق ميتا وشركات أخرى للتكنولوجيا على إطلاق منتجات إعلانية مبتكرة تعمل بالذكاء الاصطناعي التوليدي وببرامج المساعد الافتراضي في الأشهر القليلة الماضية.

جاء ذلك في أعقاب الضجة التي صاحبت إطلاق شركة "أوبن إيه.آي" الناشئة المدعومة من مايكروسوفت العام الماضي روبوت الدردشة "تشات جي بي تي"، والذي يمكنه تقديم ردود مكتوبة تشبه ردود الإنسان على الأسئلة وطلبات أخرى.

مساع لتحديث القواعد

ولم تصدر الشركات سوى النزر اليسير من المعلومات حتى الآن عن قيود السلامة التي تخطط لفرضها على تلك الأنظمة، ما يجعل قرار "ميتا" بشأن الإعلانات السياسية أحد أهم خيارات السياسة المتعلقة بالذكاء الاصطناعي في الصناعة التي ظهرت حتى الآن.

والأسبوع الماضي، أعلنت غوغل التابعة لشركة ألفابت، وهي أكبر شركة إعلانات رقمية في العالم، عن إطلاق أدوات ذكاء اصطناعي توليدي مماثلة لتعديل الصور حسب الطلب.

وقال متحدث باسم غوغل لـ"رويترز"، إن الشركة تخطط لإبعاد السياسة عن منتجاتها عن طريق منع استخدام قائمة "كلمات سياسية رئيسية" لإصدار أمر أو طلب ما من محركها البحثي الذي يعمل بالذكاء الاصطناعي.

برامج الذكاء الاصطناعي ومن بينها روبوت الدردشة "تشات جي بي تي" أثارت مخاوف من تأثيرها على الخصوصية- صورة تعبيرية.
جرائم الذكاء الاصطناعي.. والدا ضحية يكشفان لـ"الحرة" كيفية تجريد طفلتهما من ملابسها
"الصور التي انتشرت واقعية إلى حد كبير والذكاء الاصطناعي قام بعمله على أكمل وجه"، هكذا علقت الطبيبة الإسبانية، ميريام الأديب منداري، على انتشار "صور عارية مفبركة" لابنتها صاحبة الـ14 عاما، ما تسبب في تعرضها لـ"التحرش والابتزاز"، بينما يكشف خبير عن جرائم تلك الأنظمة الذكية وسبل الوقاية منها.

وتخطط غوغل أيضا لتحديث سياستها بحلول منتصف نوفمبر، والتي تشترط فيها أن تتضمن الإعلانات المتعلقة بالانتخابات الإفصاح عما إذا كانت تحتوي على "محتوى اصطناعي يصور بشكل غير صحيح أشخاصا أو أحداثا حقيقية أو يبدو مظهرها واقعيا".

وتحظر شركة سناب، مالكة تطبيق سناب شات، وموقع تيك توك الإعلانات السياسية، في حين أن موقع إكس، تويتر سابقا، لم يطرح أي أدوات إعلانية تعمل بالذكاء الاصطناعي التوليدي.

صورة للوغو تطبيق شات جي بي تي
تشويه سمعة ومعلومات مغلوطة.. هل يتحول الذكاء الاصطناعي لمصنع شائعات؟
بداية من اتهامات ملفقة بالتحرش، مرورا بتشويه سمعة بعض الناس، ختاما بتزييف حقائق ووقائع تاريخية، شهدت الفترة الماضية عدة وقائع كان بطلها الجانب المظلم من برامج الذكاء الاصطناعي، بينما يتوقع خبراء تحدث معهم موقع "الحرة" إمكانية تحول تلك التطبيقات إلى ساحة مستقبلية لنشر الشائعات والأكاذيب.

والشهر الماضي، قال نيك كليج، كبير المسؤولين التنفيذيين للسياسات في شركة "ميتا"، إن استخدام الذكاء الاصطناعي التوليدي في الإعلانات السياسية "هو مجال من الواضح أننا نحتاج إلى تحديث قواعدنا فيه".

ونبه كليج الحكومات وشركات التكنولوجيا على حد سواء بأن تستعد لاحتمال استخدام هذه التكنولوجيا للتدخل في انتخابات الرئاسة الأميركية المقبلة في 2024، داعيا إلى التركيز بشكل خاص على المحتوى المتعلق بالانتخابات "الذي ينتقل من منصة إلى أخرى".

الذكاء الاصطناعي استخدم بكثرة لإنتاج محتوى زائف خلال حرب غزة
الذكاء الاصطناعي استخدم بكثرة لإنتاج محتوى زائف خلال حرب غزة

تشكل الحرب الجارية بين إسرائيل وحماس في قطاع غزة، وما يتخللها من معارك تأثير واستقطاب وتلاعب بالرأي العام، أحدث ميادين الاختبار للدور الذي تلعبه الأخبار الزائفة وحملات التضليل في تشكيل الروايات والسرديات بشأن أحداث الحرب، والمآسي الناجمة عنها، فضلاً عن التلاعب بانطباعات المتابعين وعواطفهم.

ويشكل هذا تحديا أساسيا اليوم بالأخص، مع تقدم برمجيات الذكاء الاصطناعي. 

وعلى الرغم من الدور الذي سبق ورُصد لتلك التقنيات في تزييف الواقع وبث المعلومات المضللة خلال أزمات سابقة شهدها العالم، كزلازل تركيا والمغرب وكارثة ليبيا فضلاً عن الحرب الروسية على أوكرانيا، تشهد الحرب بين إسرائيل وحماس اليوم، التجلي الأبرز والأحدث، والاستثمار الأوسع لتقنيات الذكاء الاصطناعي في وسائل التواصل الاجتماعي، ومحاولة التأثير على الرأي العام. 

هذا الواقع يضع العالم الآن وجها لوجه مع تحقق أبرز المخاوف التي طالما أحاطت باستخدام الذكاء الاصطناعي، من ناحية قدرته على تزييف الواقع، ومدى الإقناع الذي قد يتمتع به، وتالياً مدى التأثير، وهو ما بلغ مؤخرا مرحلة جعلت العاملين في مجال تدقيق المعلومات ومحاربة الأخبار المضللة في حالة من العجز والتخبط، في مجاراة سوء استخدام الذكاء الاصطناعي في التضليل.  

"أكبر مما يمكن توقعه" 

مئات الصور والقصص والأخبار والمعلومات المزيفة، اجتاحت على مدى شهرين من الحرب مواقع التواصل الاجتماعي، واكتسبت انتشارا عالميا مرتبطا بالمتابعة الواسعة لمجريات النزاع الذي اندلع في السابع من أكتوبر، عقب هجوم حماس على إسرائيل.  

وكان أمرا متوقعا، بالنسبة لمدققي المعلومات، الذين اعتادوا على ازدياد منسوب الأخبار الزائفة وحملات التضليل في أوقات الأزمات والحروب، حيث يتسنى لها عبور أسهل في زحمة الأخبار وكثافة المعلومات، بحسب ما يؤكد الصحفي ومدقق المعلومات في منصة "صواب" العاملة على مكافحة الأخبار الزائفة، ميغال حدشيتي.

ويقول إنه في وقت الأزمات والحروب "تصبح هذه الأخبار تفاصيل في المشهد العام، لا قدرة على التوقف عندها وتدقيقها بصورة كاملة".

وكانت هذه الإساءة في استخدام تقنيات وأدوات الذكاء الاصطناعي متوقعة منذ إنشائها، بحسب ما تؤكد مديرة مشروع "الشبكة العربية لمدققي المعلومات" (AFCN)، سجى مرتضى، "لكن أحداً لم يكن يتخيل أن تصل الأمور إلى هذا الحد".  

وتضيف في حديثها لموقع "الحرة"، أن "الحرب في غزة جاءت لتبين هذا الأمر بشكل أوضح، وتثبت أن الآثار السلبية للذكاء الاصطناعي بما يخص انتشار المعلومات الخاطئة والمضللة، يمكن أن تكون أكبر مما يمكن توقعه".

ولا يزال من المبكر حتى الآن، بحسب مرتضى، تحليل وتقييم التجربة الجارية حالياً، "بحكم أنها ما زالت مستمرة مع تواصل الأزمة، ونحتاج إلى وقت لكشف التأثير الحقيقي الذي تركته تلك الأخبار وحملات التضليل التي اعتمدت على الذكاء الاصطناعي".  

لكن ما يمكن تأكيده وفق الخبيرة في تدقيق المعلومات، هو أن ما يجري في الحرب المندلعة، "تخطى استخدام الذكاء الاصطناعي من قبل شركات التكنولوجيا والإعلام والتواصل الاجتماعي، في سبيل التحكم بالسرد والمحتوى، بل بات هناك إنتاج ممنهج للمواد المزيفة باستخدام الذكاء الاصطناعي وبتقنيات عالية، تنخرط فيه جهات حكومية ورسمية وعسكرية".  

عجز وتخبط  

أبرز أشكال التزييف كانت الصور والفيديوهات، بعضها صدّقها الناس بشكل كبير جدا، فيما كان التلاعب في بعضها الآخر واضحا فلم ينطل الأمر على الناس بصورة واسعة.

ولكن هناك صور استخدمت وانتشرت، ترى مرتضى أنه "عجزنا حتى عن الوصول إلى نتيجة حاسمة بشأنها، إذا ما كانت منتجة بالذكاء الاصطناعي أم لا، حيث أن التقنيات المستخدمة كانت عالية الدقة بشكل يمنع كشفها بسهولة".

وفي مثال على تلك المواد، كانت الصورة التي نشرها رئيس الوزراء الإسرائيلي، بينيامين نتانياهو، وقال إنها تعود لطفل اسرائيلي أحرقه مسلحو حماس خلال هجومهم، حيث كانت، بحسب مرتضى، موضع تدقيق من قبل الفريق، إضافة إلى الكثير من مؤسسات التدقيق العربية والعالمية.  

وفي هذا السياق، جرى استخدام عدة أدوات لكشف ما إذا كانت الصور مولَّدة بالذكاء الاصطناعي، بحسب مرتضى، التي أضافت: "بعضها كان يقدم نتيجة إيجابية وبعضها لا، حاولوا تحليل الصورة قدر المستطاع، لكنهم لم يصلوا إلى الصورة الأصلية. حسم النتيجة كان أمرا صعبا جدا، ولم يحصل حتى الآن. ومثلها كان هناك بعض المحتوى الذي صعُب كشفه بصورة حاسمة".

في المقابل، كانت هناك صور سهلة الكشف، مثل صورة لما قيل إنه "مخيم إسرائيلي للنازحين". وفي هذا الصدد قالت مرتضى: "مع ذلك كثيرون صدقوها، لكن كشفها كان سهلا ومحسوما بأنها مصنَّعة بالذكاء الاصطناعي".

وأدى تطور أدوات الذكاء الاصطناعي المخصصة لإنتاج الصور والفيديوهات، إلى جعلها أقرب في كل مرة من الحقيقة، وصعّب من عملية كشفها أو تبيان مصدرها، إذا ما كان بشرياً أو عبر الذكاء الاصطناعي، وهو ما بات مشكلة حقيقية يعاني منها مدققو المعلومات، بحسب ما يؤكد حدشيتي في حديثه لموقع "الحرة".  

يأتي ذلك في وقت يفتقد مدققو المعلومات، لاسيما في الدول العربية، إلى البرامج والأدوات التي يمكن استخدامها عبر الإنترنت للتبين من حقيقة الصور المنتشرة ومصدرها، خاصة بعدما باتت الأدوات التقليدية المستخدمة في عمليات التدقيق والتحقق غير نافعة أمام المحتوى الذي يولده الذكاء الاصطناعي. 

في هذا السياق يشرح حدشيتي، أن "الصور المزيفة المنتجة عبر أدوات الذكاء الاصطناعي، على سبيل المثال، تعتبر جديدة، فلا بصمة إلكترونية سابقة لها يعتمد عليها للكشف عن تاريخها وسياقها ومصدرها، كما كان الحال مع الأساليب التقليدية للأخبار المزيفة التي تستخدم الصور القديمة في غير سياقاتها أو يجري التعديل عليها". 

ويضيف أنه "في السابق عادة ما كان يتم التحقق من الصور عبر خدمات تقدمها محركات البحث مثل غوغل.. أما اليوم فأصبح الأمر معضلة تمنع التحقق التام والأكيد من الصور المولدة بالذكاء الاصطناعي". 

ويواجه المدققون حالة من التخبط في الاعتماد الموثوق على التقنيات والمعايير المستخدمة والمتوفرة حاليا لكشف التزييف، مما يزيد من مسؤولياتهم وحجم عملهم وصعوبة مهمتهم، خاصة أن تقنيات التزييف المعتمدة تتجه لتكون "أكثر إقناعا يوما بعد يوم"، وفقا لحدشيتي.  

وسبق لدراسة أجراها معهد ماساتشوستس للتكنولوجيا، أن أظهرت أن "الأخبار الزائفة تنتشر بمعدل 6 مرات أسرع من القصص الحقيقية، إذ ترتفع احتمالية إعادة تداول الأخبار غير الحقيقية بنسبة تزيد عن 70 في المئة". 

صورة للوغو تطبيق شات جي بي تي
تشويه سمعة ومعلومات مغلوطة.. هل يتحول الذكاء الاصطناعي لمصنع شائعات؟
بداية من اتهامات ملفقة بالتحرش، مرورا بتشويه سمعة بعض الناس، ختاما بتزييف حقائق ووقائع تاريخية، شهدت الفترة الماضية عدة وقائع كان بطلها الجانب المظلم من برامج الذكاء الاصطناعي، بينما يتوقع خبراء تحدث معهم موقع "الحرة" إمكانية تحول تلك التطبيقات إلى ساحة مستقبلية لنشر الشائعات والأكاذيب.

منظومة متكاملة.. تصعُب مجاراتها 

وفي ظل التدفق الهائل للأخبار والمعلومات الزائفة في سياق الحرب، باتت عملية التحقق والتدقيق اليدوية أو البشرية خصوصاً معوّقة بصورة كبيرة، ولا تتناسب مع حجم المواد المنتشرة.

فمهما بلغ حجم التدقيق والمدققين والعاملين في هذا المجال، لا يزال الذكاء الاصطناعي، وفق حدشيتي، قادراً على الإنتاج بغزارة تفوق القدرات البشرية على التدقيق.  

ويزداد الأمر صعوبة نتيجة عدم اقتصار دور الذكاء الاصطناعي على توليد المحتوى، بل يمتد إلى ترويجه ونشره على نطاق واسع وبشكل تلقائي على مواقع التواصل، عبر أدوت أخرى (بوتات) تشكل بدورها أداة من أدوات الذكاء الاصطناعي.  

وبذلك يكون الذكاء الاصطناعي اليوم قادراً على إنتاج قصة مكتوبة، مع صور ومقاطع مناسبة ومرتبطة تعزز الثقة بالقصة، ثم يتولى نشرها والترويج لها، مما يحوله بحسب حدشيتي إلى "منظومة إعلامية كاملة وقائمة بحد ذاتها، يمكن أن تشن حملة تزييف وتضليل بمجرد تلقيها طلباً بذلك، وبالتالي تصبح عملية التزييف آلية بصورة كاملة". 

وبالنسبة للمتابع العادي، فإنه من الصعب عليه أن يتأكد من الأخبار المزيفة بواسطة الذكاء الاصطناعي، لاسيما مع عدم توفر الثقافة الكافية والوعي الإعلامي والتقني لدى شريحة واسعة من الجمهور للتعامل مع ذلك المحتوى، مما يعرضهم بصورة أوسع للانخداع والتضليل.  

ورغم تواجد العديد من المواقع التي توفر أدوات التأكد من مصدر الصور وإذا ما كانت مولدة بالذكاء الاصطناعي من عدمه، إلا أن ضعف تلك التقنيات يجعل من الصعب الاعتماد عليها أو نصح الناس باللجوء إليها كمصدر حاسم، بحسب حدشيتي، الذي يؤكد أنه ما عادت هناك نصائح محددة يمكن تقديمها للمتابعين كثوابت وخطوات للتحقق الأكيد.  

بدورها، تلفت مرتضى إلى أن "عدم معرفة الناس، وكذلك الصحفيين ومدققي المعلومات، بكيفية عمل الذكاء الاصطناعي الذي يعتبر مجالاً حديثاً وواسعاً، مما يزيد بصورة كبيرة من خطورة هذا الواقع".  

ورغم كل التقدم التقني الذي تحققه أدوات الذكاء الاصطناعي، يلفت حدشيتي إلى أن استخدام التزييف العميق "لا يزال أقل من غيره من الأساليب ومحصور بحالات محددة، كشفها متاح وسهل نسبيا".

ويتابع: "لكن نستطيع التأكيد أننا مقبلون على مرحلة يكون فيها الأمر منتشراً على نطاق أوسع وبالسهولة نفسها للتزييف الذي نراه اليوم، فيما سيزداد كشفه صعوبة وتحديا".  

ولا يزال المنطق البشري "المعيار الأجدى"، بحسب مدققي المعلومات، للتعرف على الصور والمقاطع المزيفة، والتي تقوم على دراسة المحتوى ومراقبته بدقة لكشف السقطات التي لا يزال الذكاء الاصطناعي يقع بها خلال عملية توليد المحتوى، كالتشوهات غير المنطقية في الصور، وتبدد الملامح البشرية، وعدم تناسق الظلال مع مصدر الضوء، ودمج الأجسام والخلفيات والكتابات الظاهرة في الصور.  

إلا أن التحدي يبقى في القدرة على المجاراة، حيث إن إنتاج المادة المزيفة قد يتطلب ثوان معدودة من الذكاء الاصطناعي، في حين أن التأكد منها بشرياً يستغرق وقتا أطول بكثير لكشفها والتحقق منها بصورة حاسمة.  

الضوابط الأخلاقية.. أساس الحل 

على الرغم من حجم المأساة الكبيرة في غزة، والتي ينتج عنها الكثير من المحتوى المؤلم والصادم من صور ومشاهد مروعة بما فيه الكفاية، لا يزال الذكاء الاصطناعي يستخدم بصورة أساسية في إنتاج محتوى يتمحور حول هذه المأساة، ويسعى لإظهارها بصورة أكثر إيلاماً.

وتعتبر مديرة مشروع "الشبكة العربية لمدققي المعلومات"، أن هذا يحدث "لمحاولة إثارة عواطف الناس بصورة أكبر، وزيادة المشاعر الإنسانية السلبية، أو من أجل تصيّد المتابعات والمشاهدات".

وتستطرد: "أو يتم ذلك من خلال المؤسسات الحكومية والعسكرية التي تبث حملات تضليلية ممنهجة، وغالباً ما ينساق الناس بإعادة نشر وترويج هذا المحتوى على سبيل التعاطف أو قلة الدراية".  

وإذ تشدد مرتضى على أنه ما من شيء يمنع أي شخص حول العالم من استخدام أدوات الذكاء الاصطناعي وإنشاء الصور والفيديوهات بحرية تامة، فإنها تلفت إلى "ضرورة انتهاج الشفافية تجاه هذا المحتوى، من خلال توضيح مصدره عند النشر، وأنه عبارة عن محتوى تعبيري وليس أصليا، منتج عبر أدوات الذكاء الاصطناعي".  

"هذه الشفافية ليست متوفرة اليوم في خضم الحرب الجارية"، بحسب ما تؤكد مرتضى، التي "تأسف لانعدام الشفافية لدى كثير من المؤثرين والصحفيين والمؤسسات الإعلامية".  

ولا يزال التعامل مع الذكاء الاصطناعي من قبل الأفراد والمؤسسات على حد سواء، في مرحلة الاستكشاف، فبحسب الخبيرة في تدقيق المعلومات "حتى المؤسسات الصحفية الكبرى مثل أسوشيتد برس ونيويورك تايمز وواشنطن بوست، ما زالت تقول إنها في مرحلة اختبار واستكشاف لهذه الأدوات، لتحديد ما هو المفيد منها وما هو غير مفيد، وهذه نقطة أساسية جداً."  

إلا أن المزيد من التعمق في هذا المجال، يثبت، بالنسبة لمرتضى، أن الحاجة الأساسية "تكمن في تحديد المعايير الأخلاقية في التعامل مع هذه الأدوات، خاصة في السياق الإعلامي".

وتضيف: "مستوى الضرر الذي يمكن أن يتسبب به الذكاء الاصطناعي كبير جداً، إن كان على صعيد التحيز أو نشر المعلومات الخاطئة أو على صعيد خصوصية البيانات والشفافية ومدى ثقة الجمهور بالإعلام في المستقبل، بسبب استخدام الذكاء الاصطناعي".  

وتتابع: "وعليه يتوجب على أية مؤسسة إعلامية تستخدم الذكاء الاصطناعي في إنتاج المحتوى، أن تكون قد وضعت قواعد ومعايير أخلاقية واضحة.. ما المسموح وما الممنوع وما شروط الاستخدام".

وبحسب مرتضى، فإن "هناك مؤسسات بنت هذه القواعد، لكن للأسف هذا الأمر غير معمول به في أغلب وسائل الإعلام العربية، مما يجعل استخدام الذكاء الاصطناعي عشوائي جدا وغير خاضع لأي معيار أخلاقي، وهو سبب رئيسي بما نشهده اليوم".

أداة مكافحة 

وكانت شركات التكنولوجيا قد عقدت آمال عريضة على إمكانية مواجهة الأخبار الزائفة باستخدام تقنيات الذكاء الاصطناعي، خاصة بعد الانتخابات الأميركية عام 2016، حيث أعلنت شركات مثل غوغل وفيسبوك وتويتر (في حينها) عن اتخاذ إجراءات لمكافحة انتشار الأخبار الزائفة، وإطلاق برامج وأدوات مشغلة عبر الذكاء الاصطناعي من أجل الحد منها.  

آمال لا تزال معقودة بالدرجة نفسها حتى اليوم على الذكاء الاصطناعي، لكي يكون تقنية مفيدة في مكافحة التضليل والتزييف، وهذا ما تؤكد عليه مرتضى، أن "جانباً إيجابياً للذكاء الاصطناعي يمكن أن يتم استثماره إذا تم تطوير أدوات فعالة للتحقق، وهو الأمر الذي لا يزال يحتاج إلى وقت حتى يصبح صالحاً للاعتماد عليه".  

و"في ظل غياب شبه تام للأدوات المعتمدة على الذكاء الاصطناعي الداعمة للغة العربية، بما يشكل نقطة ضعف في رصد وتدقيق المحتوى العربي المزيف والمضلل، تعمل الشبكة العربية لمدققي المعلومات، على تطوير بعض الأدوات من ناحية، وتعريب أدوات أخرى من ناحية ثانية (أداة "فول فاكت") بشكل كامل، وتقديمها لمؤسسات التدقيق في الدول العربية، مما سيسهل التدقيق، وسيجعل نحو 50 في المئة من العمل يتم بصورة آلية بدلاً من الآلية اليدوية، مما سيوفر وقتاً كبيراً خاصة في فترة الأزمات"، وفق مرتضى.  

يذكر أن خبراء سبق أن أكدوا في تقرير لصحيفة "نيويورك تايمز" الأميركية، أن تطبيقات الذكاء الاصطناعي التوليدي يمكن أن تجعل إنتاج "المعلومات المضللة أرخص وأسهل"، خاصة للمتخصصين في نشر "نظريات المؤامرة". 

جائحة معلومات مضللة انتشرت مع جائحة كورونا. أرشيفية - تعبيرية
سلاح ذو حدين.. مخاوف من "جائحة الأخبار الزائفة" مع تطور الذكاء الاصطناعي
تحتفى منظمة الصحة العالمية الجمعة باليوم العالمي للصحة والذي يصادف أيضا مرور 75 عاما على تأسيسها، وبعد أن تعاملت المنظمة مع تحديات كبيرة في ظل جائحة كورونا خلال العامين الماضيين، إلا أنها الآن أمام جائحة من نوع آخر ترتبط في "المعلومات الخاطئة".

وتنقسم الأخبار الزائفة إلى نوعان، الأول يسمى "معلومات مضللة" ( Disinformation)، وهي إنشاء أو مشاركة معلومات خاطئة بشكل متعمد من أجل التضليل، والثاني "معلومات خاطئة" ( Misinformation) والتي تنطوي على مشاركة معلومات أو تقارير من دون معرفة أنها خاطئة. 

وأيّد هذه المخاوف ما أعرب عنه باحثون من شركة "أوبن أيه أي" التي طورت "تشات جي بي تي"، إذ عبروا في ورقة بحثية صدرت عام 2019، عن قلقهم من "قدرات هذه التطبيقات على خفض تكاليف حملات التضليل.. والتي قد تستخدم لتحقيق مكاسب مالية أو للوصول إلى أجندة سياسية معينة، أو الرغبة في خلق الفوضى والارتباك". 

وأكد الخبراء للصحيفة، أن روبوتات الدردشة قد "تشارك نظريات المؤامرة بطريقة أكثر مصداقية وإقناعا، بتقليل الأخطاء البنيوية أو الترجمات الخاطئة"، مشيرين إلى أنه لا يوجد "تكتيكات متاحة لرصدها بشكل فعال".

وخلصوا إلى أنه "لا توجد آلية واضحة من شأنها إلغاء التهديدات التي أوجدتها" روبوتات الذكاء الاصطناعي التوليدي.