تقنيات الذكاء الاصطناعي شهدت تطورات متسارعة جعلت من الصور التي تنتجها تبدو واقعية إلى حد ما
تقنيات الذكاء الاصطناعي شهدت تطورات متسارعة جعلت من الصور التي تنتجها تبدو واقعية إلى حد ما

شهدت السنوات الأخيرة ارتفاعا ملحوظا في كمية الأخبار المزيفة والمعلومات المضللة على الإنترنت ووسائل التواصل الاجتماعي، خاصة فيما يتعلق منها بالموضوعات المثيرة للجدل.

وساهم ظهور الذكاء الاصطناعي في تعزيز هذه الظاهرة، إذ بات من السهل جدا إنشاء صور ومقاطع فيديو مزيفة، مما يجعل المتلقين يعتقدون أن الأخبار المزيفة تبدو حقيقية.

وبشكل عام، تنقسم الأخبار المزيفة إلى فئتين، الأولى قصص غير دقيقة متعمدة، أي أن الأشخاص الذين ينشرونها يعرفون أنها كاذبة ولكنهم ينشرونها على أي حال، بهدف التلاعب بالرأي العام أو لزيادة أعداد الزائرين والمتابعين بغرض زيادة إيرادات الإعلانات.

أما الفئة الثانية فتتعلق بالقصص التي تحتوي على بعض العناصر الحقيقية ولكنها بالمجمل غير دقيقة، لإن الناشر لم يتحقق من جميع الحقائق، أو بالغ في جوانب معينة.

ظاهرة انتشار المعلومات المضللة ليست جديدة، فقد تم استخدام مصطلح "الأخبار المزيفة" بالفعل في القرن التاسع عشر، ولكن الإنترنت ووسائل التواصل الاجتماعي ساهمت في انتشارها. 

وقبل ظهور الإنترنت، كان الناس يميلون إلى تلقي أخبارهم من مصادر إعلامية موثوقة، وكان الصحفيون مطالبين باتباع قواعد سلوك صارمة. 

لكن شبكة الإنترنت أتاحت طرقا جديدة وسريعة جدا لنشر الأخبار والمعلومات ومشاركتها، مع الغياب النسبي للمعايير التنظيمية أو التحريرية. 

وتؤكد دراسات حديثة أن مستخدمي التواصل الاجتماعي يميلون إلى الثقة بما يرونه في حال كان المنشور يحظى بالكثير من المشاركات والإعجابات وبالتالي يقوم معظمهم بمشاركته والضغط على زر الإعجاب، دون إلقاء نظرة فاحصة على المحتوى.

وغالبا ما تصل الأخبار المزيفة إلى المستخدمين عبر منشورات على منصات مثل فيسبوك وإنستغرام و أكس (تويتر سابقا)، وفي بعض الأحيان قد يكون من الصعب التمييز بين الحقيقة والخيال، ولكن في أحيان أخرى، يكون من السهل التعرف عليها بمجرد اتباع بعض الخطوات البسيطة.

وفيما يتعلق بمعرفة الأخبار المزيفة ينصح الخبراء بما يلي:

الخطوة الأولى، والمهمة، هي التحقق من مصدر الخبر وما إذا كان موثوقا ورصينا أم أنه يعمد كثيرا لنشر الأخبار المثيرة للجدل بهدف تحقيق الإثارة.

على سبيل المثال: تأكد من ناشر الخبر، هل هو حقيقي يتمتع بسمعة طيبة؟ أم مجرد حساب وهمي؟ أم شخص لديه أجندة معينة؟

ثانيا: تحقق من مصادر أخرى ذات سمعة طيبة، وعادة ما تكون وكالات الأنباء العالمية المحترفة، أو إعمل بحثا سريعا على غوغل من خلال كتابة كلمات مفتاح مثل "كوفيد- انتشار- اسم البلد" وحدد تاريخ نشر الخبر في "آخر 24 ساعة".

ستظهر لك نتائج بحث متعددة، إذ يمكن النقر على الأخبار المنشورة في هذه الفترة، وإذا لم يظهر لك أي شيء فهذا يعني أن الخبر المنشور غير دقيق.

ثالثا: اقرأ التعليقات على المنشور و لاتكتفي فقط  بقراءة العنوان، ففي كثير من الأحيان يرد أشخاص على المنشورات المضللة، مثل "حصول انفجار في مكان معين"، بنفي الحادث أو القول إنه قديم. 

ومع ذلك لا يجب الاعتماد بشكل كامل على التعليقات، بل يجب القيام بالتحقق من الخبر بنفسك ومن مصادر موثوقة.

رابعا: في كثير من الأحيان يتم استخدام خلفيات اعتمدتها وسائل إعلام رصينة من أجل نشر معلومات مضللة عبر إضافة تعديلات عليها.

وعند مشاهدة منشور بهذا الشكل، فليس عليكم سوى الذهاب لموقع المصدر الأصلي على الإنترنت أو على وسائل التواصل الاجتماعي للتأكد من أن المحتوى منشور بالفعل.

الصور والفيديو

يخشى الخبراء أن تؤدي تكنولوجيا الذكاء الاصطناعي وتزايد الاعتماد عليها في إنشاء الصور ومقاطع فيديو والتلاعب بها، إلى احتمال أن يصدق الناس كل شيء يرونه على وسائل التواصل الاجتماعي

وفي السابق كانت هناك مقولة شهيرة مفادها أن "ليس كل ما نقرأه على الإنترنت صحيحا"، واليوم ينصح الخبراء والمختصون بضرورة تحولها إلى "ليس كل ما نراه أو نسمعه على الإنترنت صحيحا".

ومنذ زاد استخدامها مع نهاية العام الماضي ومطلع هذا العام، شهدت تقنيات الذكاء الاصطناعي تطورات متسارعة جعلت من الصور التي تنتجها تبدو واقعية إلى حد ما.

ومع ذلك هناك ثغرات يمكن من خلالها معرفة ما إذا كانت الصورة أو مقطع الفيديو أصليا أم جرى التلاعب به.

فيما يتعلق بالصور، ينصح الخبراء بالبحث عنها  بأعلى دقة ممكنة ثم القيام بتكبيرها للكشف عن التناقضات والأخطاء التي ربما لم يتم اكتشافها للوهلة الأولى.

والكثير من هذه الصور التي ينتجها الذكاء الاصطناعي تحتوي على تشوهات وعيوب وخاصة على مستوى مستوى اليدين والأصابع، حيث تظهر اليدين مشوهتان أو أنهما تحتويان على أربع أو ست أصابع أو تكون اليد صغيرة قياسا إلى حجم الجسم.

وغالبا ما يخلق الذكاء الاصطناعي صورا لأشخاص بعيون لها نظرة بلا روح أو ميتة أو تظهر اختلافات واضحة بين العينين.

كما قد يظهر الظل في أماكن غير طبيعية، وعلاوة على ذلك، قد يبدو لون البشرة غير متساوٍ.

كذلك يمكن التحقق من الخلفية داخل الصورة، إذ غالبا ما ينتج الذكاء الاصطناعي صورا بخلفيات مشوهة، لا تحتوي الكثير من التفاصيل، أو وجوه لأشخاص من دون ملامح.

بالنسبة لمقاطع الفيديو المزيفة، النقطة الأهم التي يجب التدقيق بشأنها تتعلق بتطابق حركة الشفاه وتعبيرات الوجه مع كلام الشخص الظاهر في الفيديو.

وتبقى الخطوة الأكثر نفعا، وفقا للخبراء، هي التأكد من مصدر الفيديو أو الصورة، سواء من خلال إجراء بحث عليها في غوغل، أو عبر التحقق من صحة ما ورد فيها من وكالات إخبارية ومواقع موثوقة.

مخاوف من الأضرار التي قد تسببها التقنيات العصبية بدون ضوابط
مخاوف من الأضرار التي قد تسببها التقنيات العصبية بدون ضوابط

حذرت الأمم المتحدة، الأربعاء، من المخاطر "غير المسبوقة" التي تشكلها التقنيات العصبية على خصوصية الأفراد واستقلاليتهم، رغم "إمكانياتها الهائلة" في الطب والاتصالات والبحوث.

وفي كلمتها أمام مجلس حقوق الإنسان في دورته الـ58، قالت آنا نوغريس، مقررة الأمم المتحدة الخاصة بالحق في الخصوصية، إن هذه التقنيات، التي يمكنها تسجيل وفك تشفير وحتى تعديل نشاط الدماغ، "تثير تحديات أخلاقية وقانونية قد تؤثر على الحقوق الأساسية، خصوصًا الحق في الخصوصية".

وسلط تقرير الخبيرة الأممية الضوء على فوائد ومخاطر التقنيات العصبية.

وأكد أنه على الرغم من أنها تُقدم حلولا رائدة لعلاج الاضطرابات العصبية، وتحسين الوظائف الإدراكية، وتوسيع القدرات البشرية، إلا أنه أشار إلى قدرة التقنيات العصبية على الوصول إلى أفكار الأفراد ومشاعرهم الحميمية، محذرا من مخاطر المراقبة غير المصرح بها أو الإكراه.

وأوضحت نوغريس أن الوصول غير المصرح به إلى نشاط الدماغ قد يستغل للتأثير على القرارات الشخصية والسلوكيات والأيديولوجيات، مما يُضعف الاستقلالية الشخصية والسلامة العقلية.

كما حذرت من إمكانية تحفيز أنماط عصبية معينة بشكل مصطنع، مما قد يؤدي إلى تشكيل الآراء أو المشاعر أو حتى الذكريات، وهو ما يمثل تهديدا جوهريا للإرادة الحرة.

وأشار التقرير إلى أن معالجة البيانات العصبية قد تؤدي إلى شكل جديد من التمييز، مما يعمّق التفاوتات الاجتماعية ويخلق فئة جديدة من الأفراد المهمشين بناءً على خصائصهم العصبية.

كما نبه إلى مخاطر اختراق هذه التقنيات التي تربط نشاط الدماغ بالشبكات الرقمية، مما قد يعرض الأفراد لسرقة الهوية أو السماح لجهات خارجية بالتأثير على نشاطهم العصبي عن بعد.

وشددت الخبيرة الأممية على أن تنظيم التقنيات العصبية ليس مجرد ضرورة قانونية، بل هو ضرورة أخلاقية، مؤكدة أن التحرك الفوري لوضع ضمانات صارمة هو أمر أساسي لضمان استخدام هذه التقنيات لخدمة البشرية بدلا من استغلالها.