الجنديات قلن إن القادة "تجاهلوا" تحذيراتهن
الجنديات قلن إن القادة "تجاهلوا" تحذيراتهن | Source: israeli Ministry of Defense

نقل تقرير لصحيفة هآرتس الإسرائيلية شهادات جنديات كلفن بمراقبة الحدود مع قطاع غزة قلن إنهن حذرن من نشاطات غير عادية على الحدود لعدة أشهر قبل هجوم السابع من أكتوبر، لكن كبار القادة "تجاهلوا" هذه التحذيرات، وعزا البعض السبب في ذلك إلى "التحيز الجنسي".

ونقلت صحيفة تايمز أوف إسرائيل بالإنكليزية تفاصيل ما ورد في تقرير هآرتس باللغة العبرية، الذي نقل شهادة جندية في وحدة المراقبة قالت: "لو كان الجنود رجالا، لكانت الأمور مختلفة"، وقالت أخرى إنهن تركن ليقتلهن "الإرهابيون" مثل "الصيد السهل".

ويطلق عديدون على جنديات المراقبة اسم "عيون الجيش"، لأنهن يقدمن معلومات استخباراتية في الوقت الحقيقي للجنود في الميدان على مدار 24 ساعة في اليوم، وسبعة أيام في الأسبوع.

وتجمع الجنديات معلومات من خلال مجموعة متنوعة من الكاميرات وأجهزة الاستشعار والخرائط، ويتوقع منهن أن يكن على دراية تامة بكل التفاصيل الصغيرة في مساحة 15-30 كيلومترا من المنطقة التي تتحمل كل واحدة منهن مسؤولية مراقبتها، وفق تايمز أوف إسرائيل.

وبمجرد جمع جنديات المراقبة المعلومات ذات الصلة، يتم تمريرها إلى سلسلة القيادة، بما في ذلك مسؤولي المخابرات الذين يحددون بعد ذلك الخطوات التي يجب اتخاذها. 

ولأسابيع قبل هجوم حماس في السابع من أكتوبر، أبلغت الجنديات عن نشاطات على طول حدود غزة، تشمل أنشطة تدريبية كانت على مرأى من الجميع.

وقالت جنديات في فيلق الدفاع عن الحدود لصحيفة هآرتس إنهن يعتقدن أن "التحيز الجنسي لعب دورا في حقيقة أنه لم يتم الالتفات إليهن". وقالت جندية لم تذكر اسمها إن الوحدة "مكونة بالكامل من فتيات صغيرات وقائدات شابات".

وذكرت جندية أخرى، اكتفت بتعريف نفسه بـ"إيلانا"، لصحيفة هآرتس إن القوات رصدت تدريبات حماس على السيطرة على موقع مراقبة، ولاحظت أيضا نشاطا غير عادي للمسيرات.

وقالت: "خلال الشهرين الأخيرين، بدأوا في إرسال طائرات من دون طيار يوميا، وأحيانا مرات عدة في اليوم، بالقرب من الحدود، على بعد حوالي 300 متر من السياج، وأحيانا أقل من ذلك".

وأوضحت أن الجنديات أرسلن تحذيرات إلى سلسلة القيادة من أن حماس تتدرب على هجوم، لكن تم تجاهلها.

وقال إيلانا إنه عندما بدأ الهجوم، استخدم "الإرهابيون" طائرات من دون طيار لضرب مواقعهن باستخدام نفس الأساليب التي تم رصدها أثناء التدريب.

وقالت جندية أخرى، لم تذكر اسمها، إنها شاهدت أشخاصا من غزة يصنعون نسخة طبق الأصل من دبابة ميركافا التي يستخدمها الجيش.

ولم ينبه كبار مسؤولي الأمن الجنديات بشأن التسلل المحتمل يوم السابع من أكتوبر.

وقال جندية تدعى يارا: "لو علمنا بهذا التحذير، لكانت هذه الكارثة برمتها مختلفة.. لقد تركنا الجيش الإسرائيلي هدفا سهل الاصطياد". وأضافت: "كان المقاتلون (الإسرائيليون) على الأقل يحملون أسلحة وقُتلوا مثل الأبطال. لقد تخلى الجيش عن جنديات المراقبة، وتم قتلهن ببساطة دون أن تتاح لهن أي فرصة للدفاع عن أنفسهن".

ولم يكن التقرير الرواية الأولى لجنديات المراقبة في قاعدة كيبوتس ناحال عوز، جنوبي إسرائيل، فقد سبق أن أفادت تقارير أخرى لهيئة البث العامة "مكان" والقناة الـ12 بأن تحذيراتهن لم تؤخذ على محمل الجد 

وقالت تايمز أوف إسرائيل في تقرير نشر يوم 27 أكتوبر الماضي إنه سبق الهجوم الذي نفذته حماس أشهر من علامات الإنذار التي لاحظتها جنديات المراقبة "وتجاهلها مسؤولو الاستخبارات باعتبارها غير مهمة"، وفقا لروايات شهود عيان في الأيام الأخيرة.

مسلحو "حماس" اخترقوا الحدود وأخذوا رهائن

وقبل 3 أشهر على الأقل من الهجوم، أبلغت جنديات المراقبة اللواتي يخدمن في قاعدة في ناحال عوز عن وجود علامات تشير إلى حدوث تحركات غير عادية على حدود غزة المضطربة بالفعل، التي تقع على بعد كيلومتر واحد منهن.

وشملت الأنشطة التي أبلغت عنها الجنديات معلومات عن إجراء نشطاء حماس جلسات تدريب مرات عدة يوميا، ووضع متفجرات على طول الحدود. وبحسب روايات الجنديات، فإن من تلقوا البلاغات لم يتخذوا أي إجراء.

وفي تقرير بثته هيئة البث الإسرائيلي "مكان" روت الجنديتان ياعيل روتنبرغ ومايا ديسياتنيك تجاربهما خلال الأشهر التي سبقت الهجوم، وحتى الساعة 6:30 من صباح يوم السبت، 7 أكتوبر.

واستذكرت روتنبرغ رصدها في كثير من الأحيان العديد من الفلسطينيين بزي مدني يقتربون من السياج الحدودي يحملون خرائط معهم، ويقومون بفحص الأرض المحيطة بالسياج. وفي إحدى المرات، عندما نقلت المعلومات، قيل لها إنهم مزارعون، ولا يوجد ما يدعو للقلق.

وكانت روتنبرغ نائمة عندما بدأ الهجوم، ومن بين جنديات المراقبة اللواتي كن في أماكن المعيشة في ذلك الصباح، كانت هي الوحيدة التي نجت.

أما ديسياتنيك، التي كانت بالخدمة آنذاك، فكانت الجندية الأخرى الوحيدة في القاعدة التي لم تتعرض للقتل أو للاختطاف.

وقالت لهيئة البث عن الفشل الاستخباراتي: "إنه أمر مثير للغضب. لقد رأينا ما كان يحدث، وأخبرناهم عنه، وكنا نحن من تعرض للقتل".

وروت ديسياتنيك أن مقاتلي حماس تدربوا عند السياج الحدودي دون توقف. في البداية، كان ذلك مرة واحدة في الأسبوع، ثم مرة واحدة في اليوم، ثم بشكل مستمر تقريبا.

وبالإضافة إلى نقل معلومات عن وتيرة التدريبات الجارية عند السياج، قالت جندية المراقبة إنها جمعت أدلة على محتوى التدريب الذي تضمن كيفية قيادة دبابة، وكيفية العبور إلى إسرائيل عبر نفق. ومع تزايد النشاط على الحدود، أدركت أن "الأمر مجرد مسألة وقت" قبل حدوث شيء ما.

وأكدت الجنيدتان السابقتان عميت يروشالمي ونوعا ملمان، رواية الناجيتين في مقابلة نشرتها القناة 12 صباح الخميس.

وكانت يروشالمي أنهت خدمتها العسكرية الإلزامية قبل شهر من 7 أكتوبر، ولاحظت النشاط المتزايد على حدود غزة في الأشهر التي سبقت تسريحها من الجيش.

وقالت للقناة 12: "جلسنا في نوبات عمل ورأينا قافلة من الشاحنات الصغيرة. لقد شاهدنا التدريب، حيث كان أشخاص يطلقون النار ويتدحرجون ويتدربون على الاستيلاء على دبابة. التدريب انتقل من مرة واحدة في الأسبوع إلى مرتين في الأسبوع، من كل يوم إلى مرات عدة في اليوم".

وروت قائلة "لقد رأينا دوريات على طول الحدود، وأشخاصا يحملون كاميرات ومناظير. حدث ذلك على بعد 300 متر من السياج. كان هناك الكثير من الاضطرابات، نزل الناس إلى السياج وفجروا كمية هائلة من المتفجرات، كانت كمية المتفجرات جنونية".

وعلى غرار روتنبرغ وديسياتنيك، قالت يروشالمي إنها نقلت المعلومات للجهات المعنية، ولكن يبدو أن أحدا لم يأخذ هذه المعلومات على محمل الجد.

وقالت: "لقد رأيت ما كان يحدث، وكتبت كل شيء على الكمبيوتر وقمت بتمريره. لا أعرف ماذا حدث مع هذه المعلومات، ولا نعرف في الواقع ما الذي يفعلونه بهذه المعلومات".

وأنهت ملمان خدمتها الإلزامية قبل حوالي تسعة أشهر، لكنها قالت للقناة 12 أنه حتى في ذلك الوقت، كانت هناك مؤشرات على ما هو قادم، بما في ذلك نموذج للسياج الحدودي أقامته حماس لتدريب مسلحيها، مرارا وتكرارا، على تفجير الحدود والعبور إلى الجانب الآخر.

وقالت: "طلب منا قادتنا أن نبلغ عما رأيناه، لكن الجميع تعاملوا مع الأمر كأنه أمر طبيعي، وكأنه روتيني".

الذكاء الاصطناعي استخدم بكثرة لإنتاج محتوى زائف خلال حرب غزة
الذكاء الاصطناعي استخدم بكثرة لإنتاج محتوى زائف خلال حرب غزة

تشكل الحرب الجارية بين إسرائيل وحماس في قطاع غزة، وما يتخللها من معارك تأثير واستقطاب وتلاعب بالرأي العام، أحدث ميادين الاختبار للدور الذي تلعبه الأخبار الزائفة وحملات التضليل في تشكيل الروايات والسرديات بشأن أحداث الحرب، والمآسي الناجمة عنها، فضلاً عن التلاعب بانطباعات المتابعين وعواطفهم.

ويشكل هذا تحديا أساسيا اليوم بالأخص، مع تقدم برمجيات الذكاء الاصطناعي. 

وعلى الرغم من الدور الذي سبق ورُصد لتلك التقنيات في تزييف الواقع وبث المعلومات المضللة خلال أزمات سابقة شهدها العالم، كزلازل تركيا والمغرب وكارثة ليبيا فضلاً عن الحرب الروسية على أوكرانيا، تشهد الحرب بين إسرائيل وحماس اليوم، التجلي الأبرز والأحدث، والاستثمار الأوسع لتقنيات الذكاء الاصطناعي في وسائل التواصل الاجتماعي، ومحاولة التأثير على الرأي العام. 

هذا الواقع يضع العالم الآن وجها لوجه مع تحقق أبرز المخاوف التي طالما أحاطت باستخدام الذكاء الاصطناعي، من ناحية قدرته على تزييف الواقع، ومدى الإقناع الذي قد يتمتع به، وتالياً مدى التأثير، وهو ما بلغ مؤخرا مرحلة جعلت العاملين في مجال تدقيق المعلومات ومحاربة الأخبار المضللة في حالة من العجز والتخبط، في مجاراة سوء استخدام الذكاء الاصطناعي في التضليل.  

"أكبر مما يمكن توقعه" 

مئات الصور والقصص والأخبار والمعلومات المزيفة، اجتاحت على مدى شهرين من الحرب مواقع التواصل الاجتماعي، واكتسبت انتشارا عالميا مرتبطا بالمتابعة الواسعة لمجريات النزاع الذي اندلع في السابع من أكتوبر، عقب هجوم حماس على إسرائيل.  

وكان أمرا متوقعا، بالنسبة لمدققي المعلومات، الذين اعتادوا على ازدياد منسوب الأخبار الزائفة وحملات التضليل في أوقات الأزمات والحروب، حيث يتسنى لها عبور أسهل في زحمة الأخبار وكثافة المعلومات، بحسب ما يؤكد الصحفي ومدقق المعلومات في منصة "صواب" العاملة على مكافحة الأخبار الزائفة، ميغال حدشيتي.

ويقول إنه في وقت الأزمات والحروب "تصبح هذه الأخبار تفاصيل في المشهد العام، لا قدرة على التوقف عندها وتدقيقها بصورة كاملة".

وكانت هذه الإساءة في استخدام تقنيات وأدوات الذكاء الاصطناعي متوقعة منذ إنشائها، بحسب ما تؤكد مديرة مشروع "الشبكة العربية لمدققي المعلومات" (AFCN)، سجى مرتضى، "لكن أحداً لم يكن يتخيل أن تصل الأمور إلى هذا الحد".  

وتضيف في حديثها لموقع "الحرة"، أن "الحرب في غزة جاءت لتبين هذا الأمر بشكل أوضح، وتثبت أن الآثار السلبية للذكاء الاصطناعي بما يخص انتشار المعلومات الخاطئة والمضللة، يمكن أن تكون أكبر مما يمكن توقعه".

ولا يزال من المبكر حتى الآن، بحسب مرتضى، تحليل وتقييم التجربة الجارية حالياً، "بحكم أنها ما زالت مستمرة مع تواصل الأزمة، ونحتاج إلى وقت لكشف التأثير الحقيقي الذي تركته تلك الأخبار وحملات التضليل التي اعتمدت على الذكاء الاصطناعي".  

لكن ما يمكن تأكيده وفق الخبيرة في تدقيق المعلومات، هو أن ما يجري في الحرب المندلعة، "تخطى استخدام الذكاء الاصطناعي من قبل شركات التكنولوجيا والإعلام والتواصل الاجتماعي، في سبيل التحكم بالسرد والمحتوى، بل بات هناك إنتاج ممنهج للمواد المزيفة باستخدام الذكاء الاصطناعي وبتقنيات عالية، تنخرط فيه جهات حكومية ورسمية وعسكرية".  

عجز وتخبط  

أبرز أشكال التزييف كانت الصور والفيديوهات، بعضها صدّقها الناس بشكل كبير جدا، فيما كان التلاعب في بعضها الآخر واضحا فلم ينطل الأمر على الناس بصورة واسعة.

ولكن هناك صور استخدمت وانتشرت، ترى مرتضى أنه "عجزنا حتى عن الوصول إلى نتيجة حاسمة بشأنها، إذا ما كانت منتجة بالذكاء الاصطناعي أم لا، حيث أن التقنيات المستخدمة كانت عالية الدقة بشكل يمنع كشفها بسهولة".

وفي مثال على تلك المواد، كانت الصورة التي نشرها رئيس الوزراء الإسرائيلي، بينيامين نتانياهو، وقال إنها تعود لطفل اسرائيلي أحرقه مسلحو حماس خلال هجومهم، حيث كانت، بحسب مرتضى، موضع تدقيق من قبل الفريق، إضافة إلى الكثير من مؤسسات التدقيق العربية والعالمية.  

وفي هذا السياق، جرى استخدام عدة أدوات لكشف ما إذا كانت الصور مولَّدة بالذكاء الاصطناعي، بحسب مرتضى، التي أضافت: "بعضها كان يقدم نتيجة إيجابية وبعضها لا، حاولوا تحليل الصورة قدر المستطاع، لكنهم لم يصلوا إلى الصورة الأصلية. حسم النتيجة كان أمرا صعبا جدا، ولم يحصل حتى الآن. ومثلها كان هناك بعض المحتوى الذي صعُب كشفه بصورة حاسمة".

في المقابل، كانت هناك صور سهلة الكشف، مثل صورة لما قيل إنه "مخيم إسرائيلي للنازحين". وفي هذا الصدد قالت مرتضى: "مع ذلك كثيرون صدقوها، لكن كشفها كان سهلا ومحسوما بأنها مصنَّعة بالذكاء الاصطناعي".

وأدى تطور أدوات الذكاء الاصطناعي المخصصة لإنتاج الصور والفيديوهات، إلى جعلها أقرب في كل مرة من الحقيقة، وصعّب من عملية كشفها أو تبيان مصدرها، إذا ما كان بشرياً أو عبر الذكاء الاصطناعي، وهو ما بات مشكلة حقيقية يعاني منها مدققو المعلومات، بحسب ما يؤكد حدشيتي في حديثه لموقع "الحرة".  

يأتي ذلك في وقت يفتقد مدققو المعلومات، لاسيما في الدول العربية، إلى البرامج والأدوات التي يمكن استخدامها عبر الإنترنت للتبين من حقيقة الصور المنتشرة ومصدرها، خاصة بعدما باتت الأدوات التقليدية المستخدمة في عمليات التدقيق والتحقق غير نافعة أمام المحتوى الذي يولده الذكاء الاصطناعي. 

في هذا السياق يشرح حدشيتي، أن "الصور المزيفة المنتجة عبر أدوات الذكاء الاصطناعي، على سبيل المثال، تعتبر جديدة، فلا بصمة إلكترونية سابقة لها يعتمد عليها للكشف عن تاريخها وسياقها ومصدرها، كما كان الحال مع الأساليب التقليدية للأخبار المزيفة التي تستخدم الصور القديمة في غير سياقاتها أو يجري التعديل عليها". 

ويضيف أنه "في السابق عادة ما كان يتم التحقق من الصور عبر خدمات تقدمها محركات البحث مثل غوغل.. أما اليوم فأصبح الأمر معضلة تمنع التحقق التام والأكيد من الصور المولدة بالذكاء الاصطناعي". 

ويواجه المدققون حالة من التخبط في الاعتماد الموثوق على التقنيات والمعايير المستخدمة والمتوفرة حاليا لكشف التزييف، مما يزيد من مسؤولياتهم وحجم عملهم وصعوبة مهمتهم، خاصة أن تقنيات التزييف المعتمدة تتجه لتكون "أكثر إقناعا يوما بعد يوم"، وفقا لحدشيتي.  

وسبق لدراسة أجراها معهد ماساتشوستس للتكنولوجيا، أن أظهرت أن "الأخبار الزائفة تنتشر بمعدل 6 مرات أسرع من القصص الحقيقية، إذ ترتفع احتمالية إعادة تداول الأخبار غير الحقيقية بنسبة تزيد عن 70 في المئة". 

صورة للوغو تطبيق شات جي بي تي
تشويه سمعة ومعلومات مغلوطة.. هل يتحول الذكاء الاصطناعي لمصنع شائعات؟
بداية من اتهامات ملفقة بالتحرش، مرورا بتشويه سمعة بعض الناس، ختاما بتزييف حقائق ووقائع تاريخية، شهدت الفترة الماضية عدة وقائع كان بطلها الجانب المظلم من برامج الذكاء الاصطناعي، بينما يتوقع خبراء تحدث معهم موقع "الحرة" إمكانية تحول تلك التطبيقات إلى ساحة مستقبلية لنشر الشائعات والأكاذيب.

منظومة متكاملة.. تصعُب مجاراتها 

وفي ظل التدفق الهائل للأخبار والمعلومات الزائفة في سياق الحرب، باتت عملية التحقق والتدقيق اليدوية أو البشرية خصوصاً معوّقة بصورة كبيرة، ولا تتناسب مع حجم المواد المنتشرة.

فمهما بلغ حجم التدقيق والمدققين والعاملين في هذا المجال، لا يزال الذكاء الاصطناعي، وفق حدشيتي، قادراً على الإنتاج بغزارة تفوق القدرات البشرية على التدقيق.  

ويزداد الأمر صعوبة نتيجة عدم اقتصار دور الذكاء الاصطناعي على توليد المحتوى، بل يمتد إلى ترويجه ونشره على نطاق واسع وبشكل تلقائي على مواقع التواصل، عبر أدوت أخرى (بوتات) تشكل بدورها أداة من أدوات الذكاء الاصطناعي.  

وبذلك يكون الذكاء الاصطناعي اليوم قادراً على إنتاج قصة مكتوبة، مع صور ومقاطع مناسبة ومرتبطة تعزز الثقة بالقصة، ثم يتولى نشرها والترويج لها، مما يحوله بحسب حدشيتي إلى "منظومة إعلامية كاملة وقائمة بحد ذاتها، يمكن أن تشن حملة تزييف وتضليل بمجرد تلقيها طلباً بذلك، وبالتالي تصبح عملية التزييف آلية بصورة كاملة". 

وبالنسبة للمتابع العادي، فإنه من الصعب عليه أن يتأكد من الأخبار المزيفة بواسطة الذكاء الاصطناعي، لاسيما مع عدم توفر الثقافة الكافية والوعي الإعلامي والتقني لدى شريحة واسعة من الجمهور للتعامل مع ذلك المحتوى، مما يعرضهم بصورة أوسع للانخداع والتضليل.  

ورغم تواجد العديد من المواقع التي توفر أدوات التأكد من مصدر الصور وإذا ما كانت مولدة بالذكاء الاصطناعي من عدمه، إلا أن ضعف تلك التقنيات يجعل من الصعب الاعتماد عليها أو نصح الناس باللجوء إليها كمصدر حاسم، بحسب حدشيتي، الذي يؤكد أنه ما عادت هناك نصائح محددة يمكن تقديمها للمتابعين كثوابت وخطوات للتحقق الأكيد.  

بدورها، تلفت مرتضى إلى أن "عدم معرفة الناس، وكذلك الصحفيين ومدققي المعلومات، بكيفية عمل الذكاء الاصطناعي الذي يعتبر مجالاً حديثاً وواسعاً، مما يزيد بصورة كبيرة من خطورة هذا الواقع".  

ورغم كل التقدم التقني الذي تحققه أدوات الذكاء الاصطناعي، يلفت حدشيتي إلى أن استخدام التزييف العميق "لا يزال أقل من غيره من الأساليب ومحصور بحالات محددة، كشفها متاح وسهل نسبيا".

ويتابع: "لكن نستطيع التأكيد أننا مقبلون على مرحلة يكون فيها الأمر منتشراً على نطاق أوسع وبالسهولة نفسها للتزييف الذي نراه اليوم، فيما سيزداد كشفه صعوبة وتحديا".  

ولا يزال المنطق البشري "المعيار الأجدى"، بحسب مدققي المعلومات، للتعرف على الصور والمقاطع المزيفة، والتي تقوم على دراسة المحتوى ومراقبته بدقة لكشف السقطات التي لا يزال الذكاء الاصطناعي يقع بها خلال عملية توليد المحتوى، كالتشوهات غير المنطقية في الصور، وتبدد الملامح البشرية، وعدم تناسق الظلال مع مصدر الضوء، ودمج الأجسام والخلفيات والكتابات الظاهرة في الصور.  

إلا أن التحدي يبقى في القدرة على المجاراة، حيث إن إنتاج المادة المزيفة قد يتطلب ثوان معدودة من الذكاء الاصطناعي، في حين أن التأكد منها بشرياً يستغرق وقتا أطول بكثير لكشفها والتحقق منها بصورة حاسمة.  

الضوابط الأخلاقية.. أساس الحل 

على الرغم من حجم المأساة الكبيرة في غزة، والتي ينتج عنها الكثير من المحتوى المؤلم والصادم من صور ومشاهد مروعة بما فيه الكفاية، لا يزال الذكاء الاصطناعي يستخدم بصورة أساسية في إنتاج محتوى يتمحور حول هذه المأساة، ويسعى لإظهارها بصورة أكثر إيلاماً.

وتعتبر مديرة مشروع "الشبكة العربية لمدققي المعلومات"، أن هذا يحدث "لمحاولة إثارة عواطف الناس بصورة أكبر، وزيادة المشاعر الإنسانية السلبية، أو من أجل تصيّد المتابعات والمشاهدات".

وتستطرد: "أو يتم ذلك من خلال المؤسسات الحكومية والعسكرية التي تبث حملات تضليلية ممنهجة، وغالباً ما ينساق الناس بإعادة نشر وترويج هذا المحتوى على سبيل التعاطف أو قلة الدراية".  

وإذ تشدد مرتضى على أنه ما من شيء يمنع أي شخص حول العالم من استخدام أدوات الذكاء الاصطناعي وإنشاء الصور والفيديوهات بحرية تامة، فإنها تلفت إلى "ضرورة انتهاج الشفافية تجاه هذا المحتوى، من خلال توضيح مصدره عند النشر، وأنه عبارة عن محتوى تعبيري وليس أصليا، منتج عبر أدوات الذكاء الاصطناعي".  

"هذه الشفافية ليست متوفرة اليوم في خضم الحرب الجارية"، بحسب ما تؤكد مرتضى، التي "تأسف لانعدام الشفافية لدى كثير من المؤثرين والصحفيين والمؤسسات الإعلامية".  

ولا يزال التعامل مع الذكاء الاصطناعي من قبل الأفراد والمؤسسات على حد سواء، في مرحلة الاستكشاف، فبحسب الخبيرة في تدقيق المعلومات "حتى المؤسسات الصحفية الكبرى مثل أسوشيتد برس ونيويورك تايمز وواشنطن بوست، ما زالت تقول إنها في مرحلة اختبار واستكشاف لهذه الأدوات، لتحديد ما هو المفيد منها وما هو غير مفيد، وهذه نقطة أساسية جداً."  

إلا أن المزيد من التعمق في هذا المجال، يثبت، بالنسبة لمرتضى، أن الحاجة الأساسية "تكمن في تحديد المعايير الأخلاقية في التعامل مع هذه الأدوات، خاصة في السياق الإعلامي".

وتضيف: "مستوى الضرر الذي يمكن أن يتسبب به الذكاء الاصطناعي كبير جداً، إن كان على صعيد التحيز أو نشر المعلومات الخاطئة أو على صعيد خصوصية البيانات والشفافية ومدى ثقة الجمهور بالإعلام في المستقبل، بسبب استخدام الذكاء الاصطناعي".  

وتتابع: "وعليه يتوجب على أية مؤسسة إعلامية تستخدم الذكاء الاصطناعي في إنتاج المحتوى، أن تكون قد وضعت قواعد ومعايير أخلاقية واضحة.. ما المسموح وما الممنوع وما شروط الاستخدام".

وبحسب مرتضى، فإن "هناك مؤسسات بنت هذه القواعد، لكن للأسف هذا الأمر غير معمول به في أغلب وسائل الإعلام العربية، مما يجعل استخدام الذكاء الاصطناعي عشوائي جدا وغير خاضع لأي معيار أخلاقي، وهو سبب رئيسي بما نشهده اليوم".

أداة مكافحة 

وكانت شركات التكنولوجيا قد عقدت آمال عريضة على إمكانية مواجهة الأخبار الزائفة باستخدام تقنيات الذكاء الاصطناعي، خاصة بعد الانتخابات الأميركية عام 2016، حيث أعلنت شركات مثل غوغل وفيسبوك وتويتر (في حينها) عن اتخاذ إجراءات لمكافحة انتشار الأخبار الزائفة، وإطلاق برامج وأدوات مشغلة عبر الذكاء الاصطناعي من أجل الحد منها.  

آمال لا تزال معقودة بالدرجة نفسها حتى اليوم على الذكاء الاصطناعي، لكي يكون تقنية مفيدة في مكافحة التضليل والتزييف، وهذا ما تؤكد عليه مرتضى، أن "جانباً إيجابياً للذكاء الاصطناعي يمكن أن يتم استثماره إذا تم تطوير أدوات فعالة للتحقق، وهو الأمر الذي لا يزال يحتاج إلى وقت حتى يصبح صالحاً للاعتماد عليه".  

و"في ظل غياب شبه تام للأدوات المعتمدة على الذكاء الاصطناعي الداعمة للغة العربية، بما يشكل نقطة ضعف في رصد وتدقيق المحتوى العربي المزيف والمضلل، تعمل الشبكة العربية لمدققي المعلومات، على تطوير بعض الأدوات من ناحية، وتعريب أدوات أخرى من ناحية ثانية (أداة "فول فاكت") بشكل كامل، وتقديمها لمؤسسات التدقيق في الدول العربية، مما سيسهل التدقيق، وسيجعل نحو 50 في المئة من العمل يتم بصورة آلية بدلاً من الآلية اليدوية، مما سيوفر وقتاً كبيراً خاصة في فترة الأزمات"، وفق مرتضى.  

يذكر أن خبراء سبق أن أكدوا في تقرير لصحيفة "نيويورك تايمز" الأميركية، أن تطبيقات الذكاء الاصطناعي التوليدي يمكن أن تجعل إنتاج "المعلومات المضللة أرخص وأسهل"، خاصة للمتخصصين في نشر "نظريات المؤامرة". 

جائحة معلومات مضللة انتشرت مع جائحة كورونا. أرشيفية - تعبيرية
سلاح ذو حدين.. مخاوف من "جائحة الأخبار الزائفة" مع تطور الذكاء الاصطناعي
تحتفى منظمة الصحة العالمية الجمعة باليوم العالمي للصحة والذي يصادف أيضا مرور 75 عاما على تأسيسها، وبعد أن تعاملت المنظمة مع تحديات كبيرة في ظل جائحة كورونا خلال العامين الماضيين، إلا أنها الآن أمام جائحة من نوع آخر ترتبط في "المعلومات الخاطئة".

وتنقسم الأخبار الزائفة إلى نوعان، الأول يسمى "معلومات مضللة" ( Disinformation)، وهي إنشاء أو مشاركة معلومات خاطئة بشكل متعمد من أجل التضليل، والثاني "معلومات خاطئة" ( Misinformation) والتي تنطوي على مشاركة معلومات أو تقارير من دون معرفة أنها خاطئة. 

وأيّد هذه المخاوف ما أعرب عنه باحثون من شركة "أوبن أيه أي" التي طورت "تشات جي بي تي"، إذ عبروا في ورقة بحثية صدرت عام 2019، عن قلقهم من "قدرات هذه التطبيقات على خفض تكاليف حملات التضليل.. والتي قد تستخدم لتحقيق مكاسب مالية أو للوصول إلى أجندة سياسية معينة، أو الرغبة في خلق الفوضى والارتباك". 

وأكد الخبراء للصحيفة، أن روبوتات الدردشة قد "تشارك نظريات المؤامرة بطريقة أكثر مصداقية وإقناعا، بتقليل الأخطاء البنيوية أو الترجمات الخاطئة"، مشيرين إلى أنه لا يوجد "تكتيكات متاحة لرصدها بشكل فعال".

وخلصوا إلى أنه "لا توجد آلية واضحة من شأنها إلغاء التهديدات التي أوجدتها" روبوتات الذكاء الاصطناعي التوليدي.