صورة للوغو تطبيق شات جي بي تي
صورة للوغو تطبيق شات جي بي تي

بداية من اتهامات ملفقة بالتحرش، مرورا بتشويه سمعة بعض الناس، ختاما بتزييف حقائق ووقائع تاريخية، شهدت الفترة الماضية عدة وقائع كان بطلها الجانب المظلم من برامج الذكاء الاصطناعي التوليدي، بينما يتوقع خبراء تحدث معهم موقع "الحرة" إمكانية تحول تلك التطبيقات إلى ساحة مستقبلية لنشر الشائعات والأكاذيب.

اتهامات تحرش وهمية

كان أستاذ القانون في جامعة جورج واشنطن بالولايات المتحدة، جوناثان تورلي، أحدث ضحايا برامج الدردشة الآلية، بعدما اتهمه الذكاء الاصطناعي على غير الحقيقة بـ"التحرش" بإحدى الطالبات، وفقا لتقرير لصحيفة "واشنطن بوست".

وكجزء من دراسة بحثية، طلب محامٍ زميل في كاليفورنيا من برنامج الدردشة الآلية "شات جي.بي.تي" ، إنشاء قائمة بالعلماء القانونيين الذين تحرشوا جنسيا بشخص ما. 

وزعم روبوت الدردشة، الذي أنشأته شركة "شركة أوبن إيه.آي" المدعومة من مايكروسوفت، أن تورلي، أدلى بإيحاءات جنسية وحاول لمس طالبة أثناء رحلة صفية إلى ألاسكا، مستندا في معلوماته على تقرير تم نشره في صحيفة "واشنطن بوست" في 21 مارس 2018.

وتقول "واشنطن بوست"، إنه "لا توجد أي مادة تم نشرها على الصحيفة حول ذلك الأمر، ولم تكن هناك أيضا رحلة صيفية إلى ألاسكا، ولا يعمل أستاذ القانون بجامعة جورج تاون كما أدعى الذكاء الاصطناعي"، بينما قال تورلي إنه لم يتم اتهامه أبدا بالتحرش بطالب.

تشويه سمعة

رئيس بلدية هيبورن شاير في أستراليا، بريان هود، قد يكون صاحب أول دعوى تشهير في العالم ضد شركة "أوبن أيه آي" بعدما اتهمه تطبيق "شات جي بي تي" بالتورط في فضيحة رشوة، وفقا لوكالة "رويترز".

واكتشف العمدة الأسترالي أن "روبوت الدردشة" وصمه زورا بـ"التورط في فضيحة رشوة أجنبية" تشمل شركة تابعة لبنك الاحتياطي الأسترالي في أوائل العقد الأول من القرن الحادي والعشرين.

كما زعم برنامج الدردشة الآلية، أن العمدة الأسترالي قد قضى فترة بالسجن، نتيجة ارتكابه تلك الجريمة.

كان هود يعمل بالفعل في شركة"Note Printing Australia"، لكنه كان الشخص الذي أخطر السلطات حول دفع رشوة لمسؤولين أجانب للفوز بعقود طباعة عملات، لكن لم يتم اتهامه قط بارتكاب جريمة، كما قال محامون يمثلونه.

معلومات مغلوطة

من السهل نسبيا على الأشخاص الحصول على معلومات مضللة أو كلام يحض على الكراهية، عبر "روبوتات الدردشة".

وفي 5 أبريل، كشفت دراسة نشرها "مركز مكافحة الكراهية الرقمية"،أن أداة "Bard AI" الجديدة التابعة لغوغل، تنشئ محتوى معلومات خاطئة في 78 سرد من أصل 100 تم اختبارها.

و"Bard"عبارة عن روبوت محادثة يعمل بالذكاء الاصطناعي يمكنه إنتاج نصوص ومقالات ومحتوى وسائط اجتماعية بصوت الإنسان استجابةً للمطالبات والأسئلة التي يطرحها المستخدمون، وبدأت غوغل، في طرح المنتج لاختيار المستخدمين اعتبارا من 21 مارس.

وفي وقت سابق، حذرت وكالة الشرطة الأوروبية (يوروبول) من خطر استخدام تطبيق "شات جي.بي.تي"، في محاولات الخداع الإلكترونية ونشر المعلومات المضللة والجرائم الإلكترونية.

كيف تعمل تلك التطبيقات؟

تعمل روبوتات الدردشة المدعومة بالذكاء الاصطناعي من خلال الاعتماد على مجموعات كبيرة من المحتوى عبر الإنترنت، والتي غالبا ما يتم اقتطاعها من مصادر مثل "ويكيبيديا وريديت"، لتجميع الردود المعقولة على أي سؤال تقريبا.

وتم تدريب تلك الروبوتات على تحديد أنماط الكلمات والأفكار، حيث يقومون بإنشاء جمل وفقرات وحتى مقالات كاملة قد تشبه المواد المنشورة عبر الإنترنت.

ويتحدث خبير تكنولوجيا المعلومات، تامر محمد، عن "محاولة شركات عالمية الاستحواذ على الحصة الأكبر في سوق الذكاء الاصطناعي، وصراع محموم لنشر منصات تابعة لها بغض النظر عن كفاءة وجودة المعلومات التي تقدمها التطبيقات من عدمه".

وفي تصريحات لموقع "الحرة"، يؤكد أن تلك التطبيقات تستقى المعلومات من "الإنترنت" سواء كانت "موثوقة وصحيحة" أو كاذبة ومغلوطة.

ومن خلال قدرة الذكاء الاصطناعي على البحث العميق، فهو يجمع المعلومات المتاحة من كافة المواقع والمنتديات عبر الإنترنت دون التحقق من مدى مصداقيتها أو صحتها، ولذلك فهو يتعامل مع الشائعات والأكاذيب على أنها حقائق، وفقا لحديث محمد.

ويتفق مع الطرح السابق، مستشار أمن المعلومات، أنس النجداوي، الذي يشير إلى أن روبوتات الدردشة القائمة على الذكاء الاصطناعي، في طور "التطور النمو"، ومازالت تحتاج الكثير من التحسينات.

وفي حديثه لموقع "الحرة"، يؤكد أن تلك التطبيقات تقوم "بتأليف" بعض المعلومات التي تكون "غير حقيقية" لكنها تصيغها بشكل منطقي لتبدو وكأنها "صحيحة".

وتكون تلك المعلومات خاطئة وغير دقيقة بنسبة 100 بالمئة، بسبب تصميم تلك التطبيقات التي يتم تغذيتها وتدريبها باستخدام نمط من البيانات لتقوم بأنشاء وصياغة نصوص جديدة التي تحمل الكثير من "الأخطاء والمغالطات"، وفقا لحديث النجداوي.

فيما يرى الخبير التكنولوجيا وأمن المعلومات، شغالي جعفر، أن تطور الذكاء الاصطناعي بمثابة "سلاح ذو حدين".

وفي حديثه لموقع "الحرة"، يشير إلى أن خوارزميات التعلم العميق وتقنيات معالجة الصور والتحكم بمخرجاتها ونمذجتها وفق ما تمليه متطلبات المستخدم جعل البشرية في تحدي كبير من أجل التصدي لبعض الممارسات والاستخدامات التي حادت بهذه الأدوات عن مسارها الإيجابي.

مصنع شائعات وأخبار مغلوطة؟

يشدد النجداوي على أنه يجب استخدام تلك التطبيقات بشكل "حذر جدا" وعدم النظر للمعلومات التي تقدمها على أنها "دقيقة".

ويقول "قد تكون روبوتات الدردشة مدربة في مجال علمي معين لكن في توجيه أسئلة جديدة لتلك التطبيقات، فسوف تصيغ إجابة قد تكون خاطئة بنسبة كبيرة".

وإذا تم استخدام الذكاء الاصطناعي بشكل "غير واعي" من قبل المستخدمين فقد يؤدي لزيادة نشر الأكاذيب والمعلومات المغلوطة، وفقا للنجداوي.

ويتفق مع الطرح السابق، محمد الذي يحذر من إمكانية تحول تلك المنصات إلى وسيلة لنشر الأخبار الكاذبة والمعلومات المغلوطة والشائعات المنتشرة عبر الإنترنت.

ويؤكد جعفر أن تلك التطبيقات قد تتحول إلى "ساحة لنشر الشائعات والأكاذيب والمعلومات المغلوطة"، لكن هنا "خوارزميات" تتحكم في تلك الأضرار.

هل يمكن مقاضاة الذكاء الاصطناعي؟

يشير جعفر إلى إمكانية "مقاضاة الذكاء الاصطناعي" من خلال مطوريه، ويقول إن "جميع تلك التطبيقات مملوكة لشركات معروفة قانونيا".

ويمكن لتلك الجهات إعطاء الجهات القضائية "الدليل التقني" الذي يمكن أن ينصف ضحايا جرائم الذكاء الاصطناعي، وفقا لجعفر.

لكن لا توجد قوانين تؤطر عمل تطبيقات الدردشة المعتمدة على الذكاء الاصطناعي، أو تحدد المسؤولية القانونية والجنائية بشأن استخدامها لنشر الشائعات أو تشويه سمعة الآخرين، وفقا النجداوي ومحمد.

ويقول النجداوي إن "التطبيقات ليست المسؤولة عن إنشاء البيانات والمعلومات المغلوطة، لكنها جمعت أفكار تم تغذيتها بها سابقا".

من جانبه يقول محمد "لا توجد قوانين تحدد تقع عليه المسؤولية الجنائية عند ارتكاب تلك الجرائم، وهل هو المستخدم أم مالك المنصة".

ولذلك يجب وضع ضوابط وقوانين قواعد منظمة سواء للمستخدمين أو منشئ المنصات، حتى لا تضيع "المسؤولية القانونية" بين المتهمين، ولتأطير عمل تلك التطبيقات في المستقبل، وفقا للخبراء.

الذكاء الاصطناعي يثير قلق المسؤولين الأميركيين بشأن استغلاله للإضرار بالانتخابات الرئاسية 2024
الذكاء الاصطناعي يثير قلق المسؤولين الأميركيين بشأن استغلاله للإضرار بالانتخابات الرئاسية 2024 | Source: Pexels

في غرفة العمليات بالبيت الأبيض، شارك مسؤولون أميركيون في تمرين عملي، في ديسمبر 2023، يحاكي سيناريو ينشئ فيه عملاء صينيون مقطع فيديو مزيفا بالذكاء الاصطناعي، يصور مرشحا لمجلس الشيوخ وهو يتلف بطاقات الاقتراع في انتخابات الرئاسة 2024.

الهدف من التمرين هو الاستعداد الجيد لانتخابات عام 2024، حيث شهدت غرفة العمليات قتالا أظهره المسؤولون الأميركيون من أجل الرد بحزم على هذا السيناريو الذي يقلق السلطات الأمنية.

وأصبح الذكاء الاصطناعي بقدراته المتقدمة، خاصة ما صار يعرف بالذكاء الاصطناعي التوليدي، مقلقا للمسؤولين الأميركيين. فهذه التكنولوجيا تنتج في دقائق معدودة محتوى يصعب التفريق بينه وبين ما ينتجه الإنسان.

ولفهم مدى خطورة تهديد الذكاء الاصطناعي، أجرت صحيفة نيويورك تايمز تجربة خصصت فيها روبوتات دردشة، وزودتها بالملايين من منشورات وسائل التواصل الاجتماعي المتاحة للعامة.

سمحت المنشورات، التي تراوحت بين مناقشات حول المساواة العرقية والجنسانية إلى سياسات الحدود، لروبوتات الدردشة بتطوير مجموعة متنوعة من وجهات النظر الليبرالية والمحافظة.

سألت الصحيفة هذه الروبوتات: من سيفوز في انتخابات نوفمبر؟

تشير الردود، التي استغرق إنشاؤها بضعة دقائق، إلى مدى سهولة إغراق منصات "إكس" وفيسبوك والمنتديات عبر الإنترنت بمشاركات مثل هذه، من حسابات تتظاهر بأنها مستخدمين حقيقيين، لكنها في الواقع روبوتات.

وقال، أورين إيتزيوني، الأستاذ في جامعة واشنطن ومؤسس TrueMedia.org، وهي منظمة غير ربحية تهدف إلى كشف المعلومات المضللة القائمة على الذكاء الاصطناعي: "أشعر بالرعب لأننا على وشك رؤية تسونامي من المعلومات المضللة، خاصة هذا العام". 

يقلق الذكاء الاصطنايع المسؤولين الأميركيين بشأن إمكانية استغلاله للإضرار بانتخابات الرئاسة 2024

"فرص قوية للتدخل"

في الخامس من نوفمبر المقبل، سيدلي الأميركيون بأصواتهم في الانتخابات الرئاسية، ويتوقع أن تحصل سيناريوهات تهدف إلى التشويش على الناخبين. على سبيل المثال، قد يصل مقطع فيديو للناخبين يقول إن "مركز الاقتراع الخاص بك مغلق"، أو إن "موعد الاقتراع تغير". هذه قد تكون حيلة استخدم فيها العملات قدرات الذكاء الاصطناعي.

وتقول وزارة الأمن الداخلي الأميركية في نشرة حديثة تم توزيعها على مسؤولي الولايات والمسؤولين المحليين، إن أدوات الذكاء الاصطناعي لإنشاء مقاطع فيديو وصوت مزيفة ومحتويات أخرى، من المرجح أن تمنح العملاء الأجانب والمتطرفين المحليين "فرصا قوية للتدخل" في الانتخابات الرئاسية 2024.

الترجيحات تشير إلى محاولات مجموعات مختلفة استخدام الذكاء الاصطناعي التوليدي، أو الذكاء الاصطناعي الذي ينشئ محتوى مزيفا، للتأثير أو "زرع الفتنة"، وفق نشرة أصدرها مكتب استخبارات وزارة الأمن الداخلي في 17 مايو.

الذكاء الاصطناعي يتمتع بقدراتمتقدمة يمكن أن تستغلها بعض الجهات للإضرار بانتخابات الرئاسة الأميركية 2024

وتؤكد وزارة الأمن الداخلي الأميركي أن النظام الانتخابي الأميركي "محصن"، لكن إمكانيات الذكاء الاصطناعي، وإصرار جهات مختلفة على تنفيذ محاولات مكثفة لإرباك الاقتراع، تدق ناقوس الخطر.

وجمعت وكالة الأمن القومي معلومات استخبارية، أعطت المسؤولين الأميركيين نظرة ثاقبة حول قدرات الصين وإيران في إنتاج التزييف العميق.

والآن، مع سهولة إنتاج الصوت والفيديو المزيف، أصبح المسؤولون الأميركيون أكثر قلقا بشأن كيفية استغلال حملة التأثير الأجنبي للذكاء الاصطناعي لتضليل الناخبين.

كيف يهدد الذكاء الاصطناعي انتخابات أميركا؟

كان مسؤولون أميركيون حاليون وسابقون قد كشفوا لشبكة سي إن إن، في وقت سابق، أن "عملاء يعملون لصالح حكومتي الصين وإيران أعدوا محتوى مزيفا بواسطة الذكاء الاصطناعي، كجزء من حملة للتأثير على الناخبين الأميركيين" في الأسابيع الأخيرة من الحملة الانتخابية لعام 2020.

لم ينشر العملاء الصينيون والإيرانيون مطلقا الصوت أو الفيديو المزيف علنا، لكن المعلومات الاستخبارية توضح المخاوف التي كانت لدى المسؤولين الأميركيين قبل 4 سنوات، بشأن استعداد القوى الأجنبية لتضخيم المعلومات الكاذبة حول عملية التصويت.

بايدن وقع أمرا تنفيذيا لتنظيم الذكاء الاصطناعي

وفي مؤتمر صحفي الأسبوع الماضي، حذر مسؤولو مكتب التحقيقات الفدرالي من أن الذكاء الاصطناعي يزيد من قدرة الدول الأجنبية على نشر معلومات مضللة عن الانتخابات الأميركية.

وتقول وكالة الأمن السيبراني وأمن البنية التحتية الأميركية، إنه مع تزايد قدرات الذكاء الاصطناعي، من المهم لمسؤولي الانتخابات أن يفهموا كيف يمكن أن تؤثر هذه القدرات على أمن ونزاهة البنية التحتية للانتخابات.

وتضيف الوكالة أنه يمكن للجهات الفاعلة الخبيثة، بما في ذلك الجهات الفاعلة التابعة لدول أجنبية ومجرمي الإنترنت، الاستفادة من هذه القدرات لأغراض شائنة. 

ولا ترجح الوكالة أن تؤدي قدرات الذكاء الاصطناعي التوليدية إلى مخاطر جديدة على انتخابات 2024، لكنها قد تؤدي إلى تضخيم المخاطر الحالية على البنية التحتية للانتخابات. 

وتشير إلى أن مسؤولي الانتخابات بتمتعون بالقدرة على التخفيف من هذه المخاطر باتباع أفضل الممارسات الأمنية التي أوصى الخبراء باتخاذها لسنوات.

بايدن وترامب قد يتنافسان من جديد في انتخابات الرئاسة الأميركية 2024 في ظل تحديات وظروف حساسة داخليا وخارجيا

وتشرح الوكالة كيف يمكن لجهات خبيثة استخدام قدرات الذكاء الاصطناعي المتقدمة لاستهداف أمن وسلامة البنية التحتية للانتخابات:

حملات التضليل

هناك مسألتان مهمتان في هذا الشأن لابد لمسؤولي الانتخابات التنبه إليهما، بشأن قدرات الذكاء الاصطناعي:

التزييف العميق: يمكن للتزييف العميق الناتج عن الذكاء الاصطناعي إنشاء محتوى فيديو أو صوتي واقعي، لكنه كاذب لتضليل الناخبين أو تشويه سمعة المرشحين. 

في فترات الانتخابات تظهر حملات التضليل على شبكات التواصل الاجتماعي

ويمكن أن تؤدي مثل هذه المعلومات المضللة إلى زرع الارتباك، وتقويض الثقة في العملية الانتخابية، والتأثير على سلوك الناخبين.

الأخبار المزيفة: يمكن للذكاء الاصطناعي توليد ونشر كميات كبيرة من الأخبار والدعاية المزيفة بسرعة، مما يؤدي إلى تضخيم الروايات الكاذبة وتضليل الناخبين، والتلاعب بوسائل التواصل الاجتماعي.

التصيد الاحتيالي والهندسة الاجتماعية:

يمكن للجهات الخبيثة استخدام الذكاء الاصطناعي في الانتخابات الأميركية من خلال استراتيجيتين هما:

هجمات التصيد الاحتيالي الآلية: حيث يمكن للذكاء الاصطناعي تعزيز حملات التصيد الاحتيالي من خلال إنشاء رسائل شخصية ومقنعة للغاية لخداع مسؤولي الانتخابات والناخبين، مما قد يؤدي إلى إمكانية الوصول غير المصرح به إلى الأنظمة والبيانات الحساسة.

الهندسة الاجتماعية: يمكن للذكاء الاصطناعي تحليل كميات هائلة من البيانات لصياغة هجمات هندسة اجتماعية معقدة، واستغلال نقاط الضعف البشرية وخداع الأفراد للكشف عن معلومات سرية أو القيام بأعمال تهدد أمن الانتخابات.

هجمات سيبرانية

يمكن أن يتورط الذكاء الاصطناعي في هجمات القرصنة من خلال:

قدرات القرصنة المحسنة: يمكن للذكاء الاصطناعي أتمتة الهجمات السيبرانية وتحسين كفاءتها، وتحديد نقاط الضعف في البنية التحتية للانتخابات واستغلالها بشكل أكثر فعالية. ويتضمن ذلك استهداف قواعد بيانات تسجيل الناخبين، وآلات التصويت، وغيرها من الأنظمة المهمة.

هجمات موزعة لحجب الخدمة (DDoS): يمكن للذكاء الاصطناعي تنسيق هجمات DDoS واسعة النطاق، مما يؤدي إلى إرباك البنية التحتية للانتخابات والتسبب في اضطرابات قد تعيق عمليات التصويت والإبلاغ عن النتائج.

تضخيم المعلومات الخاطئة 

يمكن للذكاء الاصطناعي أن يساهم في تضخيم المعلومات الخاطئة، عن طريق:

شبكات الروبوت والحسابات الآلية: يمكن لشبكات الروبوت التي تعتمد على الذكاء الاصطناعي أن تغمر منصات وسائل التواصل الاجتماعي بمعلومات مضللة منسقة، مما يخلق وهم الدعم العام أو المعارضة على نطاق واسع والتأثير على الرأي العام.

يتخوف مسؤولو الإدارة الأميركية من استغلال الصين وروسيا وإيران لقدرات الذكاء الاصطناعي للإضرار بالانتخابات الأميركية 2024

غرفة الصدى (Echo Chambers): هذا المصطلح يشير إلى تضخيم المعلومات أو الرويات الخاطئة أو تعزيزها، بالتواصل والتكرار المكثف داخل نظام مغلق. 

ويمكن استخدام الذكاء الاصطناعي لممارسة هذه الاستراتيجية عبر إنشاء وإدارة ملفات تعريف وهمية على وسائل التواصل الاجتماعي تتفاعل مع مستخدمين حقيقيين، مما يعزز الروايات المضللة ويضخمها ويستقطب المجتمعات.

خيارات المواجهة

تقدم وكالة الأمن السيبراني وأمن البنية التحتية الأميركية استراتيجيات فعالة لمواجهة الخطر الحقيقي الذي يشكله الذكاء الاصطناعي على انتخابات الرئاسة 2024:

تعزيز المراقبة

ويتم ذلك باستخدام  أدوات متقدمة تعتمد على الذكاء الاصطناعي لاكتشاف ومكافحة التزييف العميق والوسائط الاصطناعية وحملات التضليل الآلية.

ويمكن استخدم أنظمة المراقبة لتتبع وتحليل وسائل التواصل الاجتماعي بحثا عن علامات على جهود التضليل المنسقة.

التوعية العامة والتعليم

تؤكد الوكالة على أهمية زيادة الوعي العام بين الناخبين حول وجود ومخاطر المعلومات المضللة والتزييف العميق الناتجة عن الذكاء الاصطناعي.

وتقول إن تثقيف الناخبين حول كيفية التعرف على المحتوى المشبوه ومحاولات التصيد والإبلاغ عنه يعد فعالا في مواجهة هذا الخطر والحد من أضراره.

التعاون وتبادل المعلومات

تعزيز التعاون بين الوكالات الحكومية الأميركية ومنصات التواصل الاجتماعي وخبراء الأمن السيبراني لمشاركة المعلومات حول التهديدات الناشئة والتدابير المضادة الفعالة. وتطوير مبادرات مشتركة لتعزيز أمن ومرونة البنية التحتية الانتخابية.

التدابير الفنية والسياسية

تعزيز بروتوكولات الأمن السيبراني للأنظمة الانتخابية، بما في ذلك المصادقة متعددة العوامل، والتشفير، وتقييمات الضعف المنتظمة.

كما تشير الوكالة إلى أهمية تبني السياسات واللوائح التي تعالج إساءة استخدام الذكاء الاصطناعي التوليدي في سياق أمن الانتخابات.

تهديد معقد

في 15 مايو قدمت مديرة المخابرات الوطنية، أفريل هاينز، شهادة للجنة المخابرات في مجلس الشيوخ، حددت فيها روسيا باعتبارها أكبر تهديد أجنبي للانتخابات الأميركية هذا العام.

وقالت  هاينز وهي، أكبر مسؤول استخباراتي أميركي، للمشرعين إن الانتخابات الأميركية تواجه تهديدات أكثر من أي وقت مضى من جهات أجنبية، وذلك بفضل التطورات السريعة في الذكاء الاصطناعي.

مديرة مديرة المخابرات الوطنية الأميركية، أفريل هاينز، في لقاء مع المشرعين الأميركيين في الكونغرس.

ويواجه المسؤولون الفيدراليون ومسؤولو الولايات والجهات المحلية المكلفة بحماية نزاهة التصويت مشهد تهديد "متنوعا ومعقدا"، حسب هاينز.

لكن هاينز قالت إن الحكومة الفيدرالية "لم تكن أبدا أفضل استعدادا" من اليوم لحماية الانتخابات، وذلك بفضل الدروس المستفادة منذ أن حاولت روسيا التأثير على الناخبين في عام 2016.