منصات عدة قامت بحذف ملايين المنشورات بعد هجوم حماس
منصات مواقع التواصل الاجتماعي التي يتم عبرها نشر صور الأطفال

وسط تحذيرات موجهة لشركات مواقع التواصل الاجتماعي بشأن أي "محتوى غير قانوني"، يشتكي مستخدمون من حذف منشورات تحدثوا بها عن حرب إسرائيل وغزة، في وقت تنتشر فيه معلومات مضللة، فكيف تتم إدارة ومراقبة المحتوى خلال الصراع الحالي؟

وقامت شركات عدة مثل ميتا المالكة لفيسبوك وإنستغرام وشركة أكس (تويتر سابقا)، بإزالة ملايين المنشورات بعد هجوم حماس والرد الإسرائيلي بقصف غزة، بناء على قوانين تتعلق بالمحتوى، والتي تتضمن عادة تحذيرا من نشر مواد عنيفة أو تحرض على العنف والكراهية.

كيف تعمل الخوارزميات؟

ويؤكد الخبير التكنولوجي، سلوم الدحداح، أن "هذه الشركات تعمل وفق آلية محددة تخضع لاتفاقية الأحكام والشروط التي يوافق عليها المستخدم قبل إنشاء الحساب عادة".

وأوضح الدحداح، في حديث لموقع "الحرة"، أن "هذه الاتفاقية تتضمن عادة بنودا تسمح للشركات بحذف المنشورات تلقائيا في حال المخالفة"، مشيرا إلى أن "أغلب المستخدمين لا يدققون بتفاصيل بنود الشروط والأحكام الموافق عليها من قبلهم".

وأكد أن "الشركات يمكن أن تحذف أي منشور بشكل تلقائي دون الرجوع إلى المستخدم، واليوم هناك العديد من القوانين الدولية المنظمة للمنشورات تجرم شركات وسائل التواصل الاجتماعي في حال وجود محتوى غير مقبول".

وعن آلية عمل الخوارزميات، فهي تستخدم مجموعة متنوعة من العوامل لتحديد المحتوى الذي سيتم عرضه للمستخدمين، والمحتوى الذي يجب حذفه.

ويوضح الدحداح أن الخوارزميات "تعمل تلقائيا لإظهار المواضيع التي يهتم المستخدم بها عادة"، مضيفا أن "هناك إمكانية لدى الشركات للتحكم بها، لإظهار ما يريدون إظهاره للمستخدمين بحسب اهتماماتهم وتوجهاتهم".

ويقول الخبير التكنولوجي، عمر سامي، إن هناك عاملان أساسيان يتحكمان في آلية مراقبة المحتوى وعمل الخوارزميات.

ويوضح في حديثه لموقع "الحرة" أن "معظم وسائل التواصل الاجتماعي تستخدم الذكاء الاصطناعي للتعرف على المحتوى غير المناسب، وهذا هو العامل الأول".

أما العامل الثاني بحسب سامي "موقف عشرات آلاف الموظفين الذين تم توظيفهم خصيصا لمراقبة المحتوى، سواء كان يتضمن خطاب كراهية أو تعرض للأطفال أو أي مواد مخالفة".

وعن السبب الذي يؤدي لحذف المنشور الذي يعتبر صاحبه أنه غير مخالف للقوانين، أوضح مركز الدراسات الاستراتيجية والدولية (CSIS) أن "الخوارزميات الحالية غير كاملة فهي تفتقر إلى الفهم الإنساني للسياقات الثقافية والفروق الدقيقة والمعاني الكامنة وراء أنماط الكلمات أو ارتباطاتها".

وأضاف المركز أن "معدل الدقة ينخفض بشكل أكبر عند مواجهة الخوارزميات للصور أو مقاطع الفيديو والبث المباشر في الوقت الفعلي، واللغات غير الإنكليزية".

من جهتها، ذكرت الشركات المالكة لفيسبوك ويوتيوب، في 10 أكتوبر الجاري، أنها تعتمد على مراجعي محتوى بالعبرية والعربية وسط الصراع المستمر بين إسرائيل وحركة "حماس".

واعتبر المركز أن "منصات التواصل الاجتماعي لم تكن مستعدة للتعامل مع طوفان المحتوى الكاذب والضار، ولتجنب ذلك، تحتاج شركات التكنولوجيا إلى ترقية خوارزميات الإشراف على المحتوى بشكل كبير، وتوسيع نطاق أنظمة الإبلاغ عن المستخدم، وتوسيع الكفاءة الثقافية واللغوية، وزيادة مستويات التوظيف الإجمالية".

شروط الحذف

ولدى سؤاله عن المعايير والشروط المتبعة لحذف المنشورات، يقول سامي إن "هناك مشكلة ومعضلة حقيقية بهذا الشأن".

وأوضح أن "هذه المشكلة لم يجدوا (الشركات) لها حلا، وتساءل ما الذي يحكم على المحتوى إن كان يدعو للكراهية مثلا أو كان خطابا سياسيا؟، هل هذه حرية رأي أم تطرف؟".

من جهتها، أوضحت شركة ميتا، الجمعة، إنها تتخذ خطوات لإزالة بعض المنشورات بعدما وبخ الاتحاد الأوروبي شركات التواصل الاجتماعي على عدم فعل ما يكفي لمعالجة ما يعتبره "معلومات مضللة".

وقالت ميتا: "منذ الهجمات الإرهابية التي شنتها حماس على إسرائيل السبت، ورد فعل إسرائيل في غزة، تعمل فرق الخبراء من جميع أنحاء شركتنا على مدار الساعة لمراقبة منصاتنا، مع حماية قدرة الأشخاص على استخدام تطبيقاتنا لتسليط الضوء على التطورات المهمة".

وأكدت ميتا أنه "في الأيام الثلاثة التالية للهجوم الذي شنته حماس في السابع من أكتوبر، أزالت أو أضافت علامة تميز المحتوى المقلق على أكثر من 795 ألف منشور باللغتين العربية والعبرية".

وأشارت الشركة إلى أنها وسعت بـ"شكل مؤقت تطبيقها لسياسة إزالة المحتوى الذي يحرض على العنف وخطاب الكراهية والمحتوى الذي يحدد بوضوح هوية محتجزين لدى حماس حتى إن كان منشورا للتنديد أو للتوعية بالموقف".

وأضافت أن "المحتوى الذي يضم صورا بتشويش على أوجه وإصابات الضحايا لا يزال مسموحا لكن منصاتها ستعطي الأولوية لسلامة وخصوصية المختطفين إذا لم تتمكن من إجراء تقييم واضح للمحتوى".

ولفتت إلى أنها "على دراية بتهديدات حماس بنشر لقطات للرهائن وستزيل بسرعة أي محتوى من هذا النوع وتمنع إعادة النشر والمشاركة".

معلومات مضللة

ومن حسابات زائفة تنتحل شخصية صحفيين إلى مشاهد من ألعاب فيديو حربية تنشر على أنها حقيقية، تواجه منصات التواصل الاجتماعي صعوبات لاحتواء موجة من المعلومات المضللة حول الحرب بين إسرائيل وغزة، وفقا لفرانس برس.

ورغم أن الأحداث العالمية الكبرى عادة ما تثير طوفانا من المعلومات المضللة، يقول خبراء، للوكالة الفرنسية، إن "حجم وسرعة انتشارها عبر الإنترنت في أعقاب الهجوم المباغت الذي شنته حركة حماس على إسرائيل، في 7 أكتوبر، لم يسبق له مثيل".

ويوضح خبراء إن "هذا النزاع يلقي الضوء على تضاؤل قدرة المنصات البارزة مثل فيسبوك وأكس على مكافحة المعلومات الكاذبة في مناخ يهيمن عليه تسريح الموظفين وخفض التكاليف".

ويقول المحلل في مجموعة الأزمات الدولية، أليساندرو أكورسي، إن "الكم الهائل من مقاطع الفيديو والصور القديمة المزورة والمزيفة لهجمات يجعل من الصعب فهم ما يجري" في إسرائيل وغزة.

ويعرب أكورسي عن "قلقه البالغ" من أن المعلومات المضللة، وخصوصا الصور المزيفة للمختطفين بما في ذلك الأطفال، يمكن أن تؤجج أعمال العنف.

ويقول الرئيس التنفيذي لمركز مكافحة الكراهية الرقمية، عمران أحمد، لوكالة فرانس برس "في الأزمات مثل الفظائع الإرهابية والحروب والكوارث الطبيعية، يميل الناس إلى اللجوء إلى منصات التواصل الاجتماعي للحصول على معلومات يمكن الوصول إليها بسرعة".

ويضيف "(لكن) سيل المخادعين الذين ينشرون الأكاذيب والكراهية بحثا عن التفاعل والمتابعين، إضافة إلى الخوارزميات التي تنشر هذا المحتوى المتطرف والمثير للقلق، هي السبب في أن وسائل التواصل الاجتماعي هي في الواقع مكان سيء للحصول على معلومات موثوقة".

وكذلك، أعلنت منصة أكس الاجتماعية التي يملكها، إيلون ماسك، أنها أزالت أو صنفت "عشرات الآلاف" من المنشورات في الأيام التي أعقبت هجوم حماس على إسرائيل.

وكتبت الرئيسة التنفيذية للشركة، ليندا ياكارينو، في رسالة مؤرخة، الأربعاء، ردا على انتقادات الاتحاد الأوروبي في هذا الشأن "منذ الهجوم الإرهابي على إسرائيل، اتخذنا إجراءات لإزالة أو تصنيف عشرات الآلاف من المنشورات".

وكانت الرسالة موجهة إلى المفوض الأوروبي للشؤون الرقمية، تييري بريتون، الذي انتقد ماسك على وسائل التواصل الاجتماعي، الثلاثاء.

قانون الخدمات الرقمية الأوروبي

وأشار سامي إلى أن "الضبابية بشأن المعايير بدأت تتلاشى بعدما تم إصدار قانون الخدمات الرقمية الأوروبي قبل نحو شهرين".

وقال إن "الاتحاد الأوروبي وفق هذا القانون هو من يحدد المعايير المتعلقة بحذف المحتوى من عدمه، وفي حال لم يكن المحتوى مناسبا، فإن الاتحاد الأوروبي يطالب شركات مواقع التواصل بإزالته خلال 24 ساعة، وفي حال عدم الالتزام تطبق عقوبات وغرامات".

وطالب بريتون في رسائل أرسلها، الثلاثاء، إلى ماسك، ومارك زوكربرغ، الذي تضم مجموعته ميتا فيسبوك وإنستغرام بتقديم تفاصيل في غضون 24 ساعة حول طريقة إزالة "المحتوى غير القانوني والمعلومات الكاذبة" من منصاتهما بما يتماشى مع قانون الخدمات الرقمية الجديد للاتحاد الأوروبي.

ويحظر هذا القانون الذي دخل حيز التنفيذ في أغسطس الماضي، المحتوى غير القانوني عبر الإنترنت تحت طائلة دفع غرامات تصل إلى ستة في المئة من مبيعات الشركة العالمية الإجمالية.

وتطرقت رسالة بريتون إلى ماسك خصوصا إلى "المحتوى العنيف والإرهابي الذي يبدو أنه يتم تداوله" عقب عملية حماس في نهاية الأسبوع الماضي على إسرائيل.

وجاء في رسالة ياكارينو أن الشركة حذفت مئات الحسابات المرتبطة بحركة حماس منذ اندلاع أعمال العنف، في 7 أكتوبر.

كما أزالت منشورات تتضمن "خطابا عنيفا ومواد إعلامية تم التلاعب بها".

هل يمكن الاعتراض على الحذف؟

في هذا الإطار، يجيب الدحداح قائلا إن "القوانين تجبر الشركات على الالتزام بكل ما يتعلق بالمحتوى، وتدفعهم نحو اتخاذ خطوات عملية (مثل حذف المنشورات)".

ويضيف أن "بعض المنصات تقول للمستخدمين إن أي منشورات تصبح ملكهم، ولهم حق التصرف بها بالطريقة المناسبة، وهو ما يشبه التنازل عن المحتوى لهم (الشركات)".

وأشار إلى أن "المستخدمين لا يمكنهم الاعتراض على حذف المنشورات (في حال المخالفة)"، مشيرا إلى أن أقصى ما يمكن أن يفعلوه هو "التوقف عن استخدام (مقاطعة) المنصة".

وأشار إلى أن "المستخدم في النهاية هو ليس مالك الشركة أو المنصة، والعميل غير الفرِح يمكنه الرحيل".

وحض بريتون، الجمعة، شركة ألفابيت المالكة لغوغل على توخي الحذر بشأن أي "محتوى غير قانوني ومعلومات مضللة" محتملة على منصة يوتيوب التابعة لها.

وتوجه بريتون برسالة إلى الرئيس التنفيذي للشركة، سوندار بيتشاي، مؤكدا على ضرورة امتثال يوتيوب لقانون الخدمات الرقمية الجديد في الاتحاد الأوروبي أيضا على منصة بلوسكاي المنافسة لأكس.

ويعكس هذا التحذير الرسائل السابقة التي تم توجيهها في وقت سابق هذا الأسبوع إلى ماسك وزوكربرغ ورئيس تيك توك، شو زي تشو، وفقا لفرانس برس.

وأشار بريتون إلى أن يوتيوب الذي يستخدمه خصوصا العديد من الأطفال والمراهقين يتحمل مسؤولية حماية مستخدميه من الدعاية الزائفة والفيديوهات العنيفة أو الضارة.

ما إمكانية "تضليل الخوارزميات"؟

ولدى سؤاله عن إمكانية تضليل الخوارزميات بشأن حذف المحتوى أو المساهمة في نشره، يجيب سامي "نعم بالتأكيد"، وهو أمر يخالف مبادىء وسياسة الشروط والأحكام.

ويقوم مستخدمون أحيانا بنشر صور أو مقاطع لا علاقة لها بالحرب من أجل تعزيز فرصة انتشار المحتوى الخاص بهم أو التلاعب بالأحرف بهدف التضليل، لكن هذه الطريقة قد لا تأتي بنتائج مضمونة، بحسب الخبراء. 

وأضاف "بالنسبة لدور العنصر البشري في الخوارزميات، فإنعهم معرضون للوقوع في الخطأ، خاصة أن المعايير ليست محددة بشكل قاطع (خارج الاتحاد الأوروبي)، وقد يختلف الحكم بين مراقب وآخر، وهناك تجاوزات كثيرة تحصل بظل غياب الدقة".

خطر الذكاء الاصطناعي يؤرق العالم
خطر الذكاء الاصطناعي يؤرق العالم

في وقت يتنامى فيه بث البروباغندا من قبل جهات حكومية في دول مثل روسيا وإيران، واستهداف الجمهور بها عبر الإنترنت الذي بات المصدر الأول للمعلومات، يعرب صناع سياسات وتكنولوجيون وباحثون عن قلقهم من أن أدوات الذكاء الاصطناعي الجديدة يمكن أن تزيد من حملات البروباغندا السرية، من خلال تسهيل عمل منتجي الدعاية وتخفيض التكاليف عليهم.

في هذا السياق، أجرت مجلة وقائع الأكاديمية الوطنية للعلوم في الولايات المتحدة الأميركية، PNAS NEXUS، تجربة استقصائية في إطار دراسة مسجلة مسبقا، للتحقق من مدى اقتناع عينة واسعة من الجمهور بالمقالات الإخبارية المولدة باستخدام الذكاء الاصطناعي مقارنة مع مقالات دعائية أخرى من إنتاج بشري، وذلك في سبيل تبيان الدور الذي يمكن للذكاء الاصطناعي أن يلعبه في عملية توليد البروباغندا من جهة، وإقناع الجمهور بها من جهة أخرى.

واعتمدت الدراسة على أداة GPT-3 davinci الصادرة عن OpenAI، لتبيان ما إذا كانت هذه النماذج اللغوية الكبيرة المعتمدة على الذكاء الاصطناعي، قادرة على تسهيل مهمة الجهات الأجنبية لتوليد دعاية مقنعة تستهدف الجماهير في الولايات المتحدة، وذلك من خلال تجربة مسح أجريت على 8221 مشاركا أميركيا لمقارنة مدى اقتناعهم بالمقالات الدعائية السرية الأجنبية المنشورة باللغة الإنكليزية بإنتاج بشري، مع تلك المولدة بالذكاء الاصطناعي. 

وأشارت الدراسة إلى أن حملات التأثير عبر الذكاء الاصطناعي يمكن أن تكون فعالة في إقناع الناس، حيث تكون الدعاية التي يولدها مقنعة للغاية بالنسبة لمجموعة واسعة من الفئات المجتمعية، بتكاليف أقل، وقدرة إنتاجية أكبر.

دراسة الإقناع

الكشف عن حملات التضليل الروسية على وسائل التواصل الاجتماعي التي استهدفت الولايات المتحدة في عام 2016 أدى، بحسب الدراسة، إلى زيادة الوعي بهذه الجهود ودفع منصات إلكترونية إلى تخصيص المزيد من الموارد للعثور على هذه العمليات وتعليقها.

وتواجه بعض منصات التكنولوجيا ضغوطا لإزالة الدعاية التي يولدها الذكاء الاصطناعي، وقد أعلنت شركات تكنولوجية كبرى مؤخرا عن إطار عمل للرد على التزييف العميق الناتج عن الذكاء الاصطناعي والذي يخدع الناخبين عمدا.

ومع ذلك، تظل فعالية هذا الإطار غير مؤكدة، حيث لم تغير بعض المنصات بشكل كبير نهجها في مكافحة الذكاء الاصطناعي الخادع، وبالتالي يستمر بث البروباغندا المدعومة من جهات حكومية على شبكة الإنترنت ومنصات التواصل الاجتماعي، وتطبيقات المراسلة المشفرة، فضلا عن العديد من القنوات الأخرى، وذلك في سبيل الترويج الذاتي أو تقويض الثقة في المؤسسات الديمقراطية.

وبينما أجريت العديد من الدراسات التي ترصد مدى وعي الناس بمصداقية المقالات المولدة بالذكاء الاصطناعي، تعتبر هذه الدراسة الأولى في نوعها التي تركز على مدى إقناع الدعاية التي يولدها الذكاء الاصطناعي مقارنة بتلك التي ينتجها البشر.

وقد ركزت على المقالات الدعائية (البروباغندا)، بدلاً من المقتطفات مثل التغريدات، نظرًا لكون أداء نماذج اللغة يتراجع عادةً مع زيادة طول النص. 

وحددت الدراسة ستة مقالات (يتراوح طولها من 151 إلى 308 كلمات) سبق أن كشف عنها صحفيون استقصائيون أو باحثون كجزء من حملات دعائية سرية محتملة مدعومة من دول مثل إيران أو روسيا، تم انتاجها بجهود بشرية، وتروج تلك المقالات للمواضيع التالية:

- الطائرات المسيرة.. استهدفت معظم ضربات الطائرات الأميركية المسيرة في الشرق الأوسط المدنيين، وليس الإرهابيين.

- إيران.. ساعدت العقوبات الأميركية ضد إيران وروسيا الولايات المتحدة في السيطرة على الشركات والحكومات في أوروبا.

- المواد الكيميائية السورية.. لتبرير هجومها على قاعدة جوية في سوريا، أنشأت الولايات المتحدة تقارير كاذبة تقول إن الحكومة السورية استخدمت الأسلحة الكيميائية.

- الوضع الصحي في سوريا.. أدت العقوبات الغربية إلى نقص الإمدادات الطبية في سوريا.

- نفط سوريا.. شنت الولايات المتحدة هجمات في سوريا للسيطرة على منطقة غنية بالنفط.

- جدار حدودي.. التزمت السعودية بالمساعدة في تمويل الجدار الحدودي بين الولايات المتحدة والمكسيك.

تلخص هذه المواضيع، بحسب الدراسة، النقطة الرئيسية التي كان يحاول المروج إقناع الجمهور المستهدف بها، في حين أن العديد من هذه الجمل إما كاذبة أو قابلة للنقاش.

وللتخفيف من مخاطر احتمال تصديق المشاركين للأكاذيب، أبلغ المشاركون بعد إكمال الاستطلاع أن المقالات جاءت من مصادر دعائية وربما تحتوي على معلومات كاذبة.

واستخدم الباحثون برنامج GPT-3 لإنشاء مقالات حول نفس المواضيع الستة. بالنسبة لكل موضوع، قام الباحثون بتزويد  GPT-3 بجملة أو جملتين من المقالة الدعائية الأصلية المنتجة بشرياً، والتي تشكل النقطة الرئيسية للمقال، بالإضافة إلى ثلاث مقالات دعائية أخرى حول مواضيع غير ذات صلة.

وطلب من GPT-3 إنشاء ثلاث مقالات حول كل موضوع، بدلاً من مقال واحد، لضمان عدم تكرار نتيجة واحدة، بكون كل مقال يتم إنشاؤه بواسطة الذكاء الاصطناعي فريد في نوعه. كما تم تجاهل النتائج التي كانت أقل من 686 حرفًا أو أكثر من 1936 حرفًا، لإبقاء المقالات في حدود 10% من أقصر وأطول المقالات من مجموعة الدعاية الأصلية أو المحررة بشرياً.

بعد ذلك، بدأت مرحلة دراسة مدى الإقناع، بين محتوى البروباغندا الأصلي وذلك المولد بالذكاء الاصطناعي.

واستعان الباحثون بشركة Lucid، وهي شركة مسح تركز على تحقيق التمثيل الجغرافي والديموغرافي لإجراء مقابلات، وتم توجيه أسئلة للمشاركين عن مدى الموافقة أو عدم الموافقة على 4 من موضوعات الدعاية الـ 6، والتي تم اختيارها عشوائيًا، دون قراءة مقال حول هذه المواضيع. بعد ذلك، قدمت لكل مشارك مقالات حول الموضوعين المتبقيين.

وقام الباحثون بعد ذلك بتقدير كيفية تأثر المشاركين بالمحتوى المعروض عليهم، على مقياسين للاتفاق، الأول مئوي يبين النسبة المئوية للمستجيبين الذين وافقوا أو وافقوا بشدة على كل عبارة مطروحة، والثاني عبر الموافقة المقاسة على مقياس مكون من 5 نقاط ابتداء من صفر، وتبدأ بعدم الموافقة بشدة وتتدرج إلى الموافقة بشدة.

نتائج متقاربة.. الإقناع ممكن

وقارنت الدراسة في تقييمها بين تأثير قراءة الدعاية الأصلية مقارنة بعدمه، لناحية الموافقة على الجمل المختصرة للموضوعات، وفي حين أن 24.4% فقط من المشاركين الذين لم يُعرض عليهم المقال الأصلي وافقوا أو وافقوا بشدة على بيان الأطروحة، قفز معدل الموافقة إلى 47.4% (زيادة قدرها 23 نقطة مئوية) بين المشاركين الذين قرأوا الدعاية الأصلية.

أما الدعاية الناتجة عن GPT-3 فقد جاءت أيضًا مقنعة للغاية بدورها، حيث وافق 43.5% من المشاركين، الذين قرأوا مقالًا تم إنشاؤه بواسطة هذا البرنامج، أو وافقوا بشدة على الجمل المطروحة عليهم، مقارنة بـ 24.4% ممن لم يقرأوا مقالات الذكاء الاصطناعي.

ويشير ذلك بحسب الدراسة إلى أنه يمكن لمروجي البروباغندا استخدام GPT-3 لإنشاء مقالات مقنعة بأقل جهد بشري، وذلك باستخدام المقالات الموجودة حول موضوعات غير ذات صلة واستغلال البرنامج لناحية أسلوب وطول المقالات الجديدة.

وبينما كانت الدعاية الناتجة عن GPT-3 مقنعة للغاية، كانت أقل إقناعًا قليلاً من الدعاية الأصلية (بفارق 3.9٪ نقطة). وتبين أن التأثيرات المقنعة للدعاية الأصلية ودعاية البرنامج كانت متسقة إلى حد ما عبر الفئات الاجتماعية.

ولم يكن هناك فروقات ملحوظة في النتائج عند تقسيم العينات، حسب المتغيرات الديموغرافية، والحزبية والأيديولوجية، ومستوى قراءة الأخبار، والوقت الذي يقضيه المستخدمون على وسائل التواصل الاجتماعي، وهو ما يشير إلى أن الدعاية التي يولدها الذكاء الاصطناعي يمكن أن تكون مقنعة لمجموعة واسعة، حتى مع اختلاف المواضيع المعروضة، فيما بعض المواضيع مثل النفط السوري وبناء الجدار الحدودي مع المكسيك كان أداء المحتوى المولد بالذكاء الاصطناعي أسوأ بكثير من الدعاية الأصلية.

وتقول الدراسة إن 3 مقالات أنتجت بواسطة الذكاء الاصطناعي أعطت نتائج متساوية، وهو ما يشير إلى إمكانية استفادة مروجي البروباغندا من النتائج المتعددة التي يقدمها البرنامج، واختيار المقالات عالية الجودة التي توضح وجهة نظر المروج، كما يمكن لهم الانخراط في تعاون بين الإنسان والذكاء الاصطناعي، لزيادة كفاءة الدعاية مع الاستمرار في الحصول على قدر من الإشراف البشري ومراقبة الجودة.

ومن بين النتائج التي توصلت إليها الدراسة أن المحتوى الناتج عن GPT-3 يمكن أن يندمج في بيئات المعلومات عبر الإنترنت على قدم المساواة مع المحتوى الذي تبثه حملات البروباغندا المنتجة بشرياً. وتضيف الدراسة أن هناك تطور مستمر في نماذج اللغة المدعومة بالذكاء الاصطناعي وهي تتحسن بسرعة، وإذا تم إجراء دراسة مماثلة باستخدام نماذج أكثر قوة في المستقبل، فمن المرجح أن يكون أداء الدعاية التي يولدها الذكاء الاصطناعي أفضل.

خلاصات

واستنتجت الدراسة أن الذكاء الاصطناعي يمكن أن يولد نصًا يكاد يكون مقنعًا للجمهور الأميركي مثل المحتوى الذي يتم بثه من حملات دعاية أجنبية سرية في العالم الحقيقي. علاوة على ذلك، أنتجت استراتيجيات التعاون بين الإنسان والآلة مقالات كانت مقنعة بقدر الدعاية الأصلية أو أكثر.

وفيما درست هذه التجربة تأثير قراءة مقال واحد، يمكن لمروجي البروباغندا استخدام الذكاء الاصطناعي لتعريض الناس للعديد من المقالات وبتكلفة زهيدة ودون إلمام لغوي.

كما أن إمكانية توليد الذكاء الاصطناعي لمقالات عدة تقدم رواية واحدة، وتختلف بالأسلوب والصياغة، من شأنها أن تزيد من حجم الدعاية، بينما يزيد من صعوبة اكتشافها، لأن المقالات التي تختلف في الأسلوب والصياغة قد تبدو أشبه بآراء أشخاص حقيقيين أو مصادر أخبار حقيقية، وفق الدراسة.

ويمكن للذكاء الاصطناعي أيضاً، بحسب الدراسة، توفير الوقت والمال، وتمكين مروجي البروباغندا من إعادة توجيه الموارد، ومن إنشاء المحتوى إلى بناء البنية التحتية (مثل الحسابات المزيفة، والمواقع "الإخبارية") التي تبدو ذات مصداقية ويمكن تجنب اكتشافها.