في نهاية شهر أغسطس الماضي، انتشر على نطاق واسع فيديو تدعي فيه امرأة أنها كانت ضحية لحادث سير كانت طرفا فيه المرشحة الديمقراطية في انتخابات الرئاسة الأميركية كامالا هاريس.
والأسبوع الماضي، أعلنت شركة مايكروسوفت أن بحثها أظهر أن الفيديو مفبرك من خلال الذكاء الاصطناعي، ضمن عملية تضليل روسية سرية.
وتشير الخبيرة في مجال التكنولوجيا الناشئة التي عملت سابقا في البيت الأبيض، ليندسي غورمان، في مقابلة مع قناة "الحرة" أن "روسيا هي الأولى في مجال الفبركة وتضليل المعلومات، وتستعمل التكنولوجيا الجديدة والذكاء الاصطناعي أكثر من أي دولة أخرى للقيام بمثل هذه العمليات للتأثير على الانتخابات الأميركية وديمقراطيات أخرى".
وعلى الرغم من أن الفيديو تم تصنيعه بأساليب تقليدية، إلا أن هذه الحالات تعكس حجم الاستغلال التقني للتلاعب بالحقائق.
وتشير غورمان إلى أن حملات التأثير في الانتخابات الأميركية كانت في الماضي عبارة عن نشر بعض التعليقات المضللة أو عبارة عن أكاذيب على بعض الحسابات الزائفة على وسائل التواصل الاجتماعي حول مواضيع تهم الناخبين، "لكن الذكاء الاصطناعي يزيد كثيرا من هذه الجهود ويسمح أيضا بإنتاج محتوى مصطنع".
وتلفت إلى أن هذا يتطلب استجابة فورية من المنصات والمجتمعات لمواجهة هذه التهديدات.
وكانت وكالة رويترز قد نقلت عن مسؤول استخباراتي أميركي قوله إن روسيا أنتجت معظم محتوى الذكاء الاصطناعي للتأثير على الانتخابات الرئاسية الأميركية أكثرَ من أي قوة أجنبية أخرى، في إطار جهودها الأوسع لتعزيز المرشح الجمهوري دونالد ترامب على منافسته هاريس.
المسؤول أوضح أن محتوى الذكاء الاصطناعي الذي أنتجته موسكو يتعلم من البيانات السابقة كيفية اتخاذ الإجراءات، وباستخدام هذا التدريب، فإنه ينشئ محتوى جديدًا مثل النصوص والصور ومقاطع الفيديو التي يبدو أنها من إنتاج البشر.
زرع الانقسامات
وأشار المسؤول إلى إعلان وزارة العدل في التاسع من يوليو عن تعطيل عملية مزعومة مدعومة من موسكو، استخدمت حسابات على وسائل التواصل الاجتماعي، معززة بالذكاء الاصطناعي لنشر رسائل مؤيدة للكرملين في الولايات المتحدة وأماكن أخرى.
لكن غورمان تقول لـ"الحرة" إن هدف الحملات الروسية ليس فقط التأثير في الانتخابات ودعم مرشح على حساب آخر، بل إنها تهدف إلى زرع الانقسامات بين الأميركيين لإغضابهم وتعزيز الفرقة بينهم من خلال النقاشات المحتدمة على وسائل التواصل الاجتماعي.
وتقول غورمان: "هناك أحيانا تأثير على بعض الناخبين الذين يتأثرون بالصور أو ببعض ما يرونه لتقويض سياسات هاريس لإظهارها مختلفة عما هي عليه وإعطائها طابعا سلبيا عبر الذكاء الاصطناعي أو عبر وسائل التلاعب بالفيديوهات بطريقة تقليدية ولكن الهدف هو تغيير شعور الناخبين، وهنا يصعب علينا جدا أن نحدد مدى التأثير أو إلى أي حد هناك تأثير، أو أن هذا التأثير سيؤدي إلى نتيجة عملية أم لا".
الفبركة التقليدية والذكاء الاصطناعي
وبشأن كيفية التعرف على المحتوى المولد بواسطة الذكاء الاصطناعي مقارنة بالمحتوى التقليدي مثل الفيديو المزيف والادعاءات المضللة للصدم بالسيارة، تشير غورمان إلى أن "هناك اختلافا تقنيا".
"أعتقد أنه من الأسهل أن نتعرف إلى فيديو تمت فبركته عبر الذكاء الاصطناعي لأن هذه البرمجيات تبدو واقعية ولكن هناك ناحية مختلفة تظهر عندما نستعمل الذكاء الاصطناعي مما يجعل من الأسهل علينا أن نكشف هذه الفيديوهات"، وفقا لغورمان.
أما في الفيديوهات التي تفبرك تقليديا، "فيستعملون فيديوهات حقيقية ويقطعونها بطريقة مختلفة لتتم عملية الفبركة والتضليل، وعندها يكون من الأصعب أن نحدد ما إذا كانت مفبركة أم لا".
وتشير إلى أن الصعوبة تكمن في الأدوات التي تم استخدامها وإلى أي مدى هي متطورة مضيفة أن هناك وسائل تقليدية فيها مستويات من التقنية والدقة".
وعلى أي حال تشير إلى أن الذكاء الاصطناعي يسهل من عمليات الفبركة والانتشار "ولكن حتى الآن يمكننا أن نميزه".
كيفية قطع الطريق على حملات التأثير المضللة
بينما يستمر استخدام الذكاء الاصطناعي في التأثير على الانتخابات، تشير غورمان إلى أنه يتعين على المجتمع الدولي والهيئات الحكومية والشركات العمل معا لوضع معايير تحمي الديمقراطية وتضمن نزاهة الانتخابات.
وتؤكد أن فهم كيفية استغلال هذه التقنيات هو الخطوة الأولى نحو بناء دفاعات قوية ضد الحملات المضللة التي تهدد القيم الديمقراطية.
بينما تشير غورمان إلى أن هناك لاعبين مثل روسيا وإيران يستعملون المحتوى الذي ينتجه الذكاء الاصطناعي للتأثير على الانتخابات الأميركية، فإن "هناك منصات كثيرة مثل أوبن أيه آي أو غيرها، فيها بعض الضوابط تتعلق بالنشاطات السياسية".
وتستأنف أنه "يمكن تخطي هذه الضوابط، ولكنها موجودة وتحد من انتشار هذا النوع من المحتوى على الأقل لحد ما".
وقالت: "يجدر أن تعرف هذه شركات مواقع التواصل الاجتماعي من يستعمل منصاتها وأن تضع بعض الضوابط، وإن كانت هناك حملات للتأثير من خلالها عليها أن تتصرف وتمنع بعض اللاعبين من استعمال هذه المنصات".
وتشير إلى أنه بالفعل بدأت بعض شركات الذكاء الاصطناعي أن تفعل ذلك وتحدد ضوابط لتحدد كيفية استعمال المنصة.
وتوضح أن "هناك ضوابط مثل المطالبة بشهادة مصدر تتعلق بالمضمون لنعرف إن كان الفيديو قد صور فعلا أم هو نتيجة تلاعب عبر الذكاء الاصطناعي ويمكن للشركات أن تفعل ذلك".
وقالت: "منصات التواصل الاجتماعي يمكنها أن تتعرف عن المضمون الذي نشر وإن كان قد أنتج عبر الذكاء الاصطناعي، وحينها يمكن سحب هذا المحتوى قبل أن ينتشر إلى حد كبير ويؤثر على الناخبين".