أدوات مختلفة تستخدم في تسجيل الصوت معروضة في سيول بعد السماح باستخدامها لتسجيل المضايقات سرا
أدوات مختلفة تستخدم في تسجيل الصوت معروضة في سيول بعد السماح باستخدامها لتسجيل المضايقات سرا

اكتسب موظفو كوريا الجنوبية الذين ضاقوا ذرعا من التنمر في أماكن العمل المزيد من الجرأة بدعم من قانون جديد أكثر صرامة يسمح بتسجيل أي إساءة أو مضايقة مزعومة سرا وهو ما ساهم بدوره في انتعاش مبيعات أجهزة التكنولوجيا السمعية والبصرية.

وتتخذ هذه الأجهزة أشكالا مثل الأحزمة الجلدية والنظارات والأقلام ووحدات الذاكرة الإلكترونية وأصبحت رائجة بين الموظفين في بلد يشهد انتشارا واسعا للسلوكيات المسيئة من جانب أصحاب النفوذ، لدرجة دفعت باستخدام كلمة مخصصة لوصف هذا السلوك وهي "غابغيل"، وفق تقرير نشرته وكالة رويترز.

وذاع صيت الحوادث من هذا النوع على مستوى العالم، وكانت أشهرها قضية "حادثة الجوز" عام 2014 عندما وجهت نائبة الرئيس التنفيذي لشركة الخطوط الجوية الكورية هيذر تشو إهانة لأحد أفراد طاقم طائرة بسبب طريقة تقديم جوز "المكاداميا" إليها أثناء رحلة طيران على الدرجة الأولى.

وقال غانغ سونغ تشورل، رئيس شركة "أوتو غنغبو" للإلكترونيات لرويترز، إن أجهزة التسجيل السرية تنتشر "كالنار في الهشيم" منذ أن أجرت الحكومة تعديلات في قوانين العمل أواخر العام الماضي.

وبموجب القانون الجديد الذي بدأ تطبيقه في 16 يوليو، من الممكن معاقبة أصحاب الشركات الذين "يفصلون أو يخفضون رتبة" من يزعمون تعرضهم للمضايقة، بالسجن لمدة ثلاثة أعوام أو دفع غرامة قد تبلغ نحو 24700 دولار.

وتحدثت رويترز مباشرة مع مجموعة من الموظفين الذين يستخدمون أجهزة تجسس شبيهة بأجهزة شخصية العميل السري جيمس بوند كما تابعت حديث نحو 100 آخرين عن استخدامهم لتلك الأجهزة عبر غرفة دردشة أنشأها محامون وأطلقوا عليها اسم "غابغيل 119" لتقديم استشارات مجانية في قضايا التنمر.

وقال غانغ إن مبيعات شركته من أجهزة التسجيل الصوتي تضاعفت مقارنة ببداية العام الحالي ووصلت إلى 80 جهازا في اليوم، وأضاف أنه يتوقع أن تبلغ هذه المبيعات مثليها أيضا خلال العام الحالي لتحقق 1.4 مليار وون كوري.

وقالت وزارة العمل في كوريا الجنوبية لرويترز إن 572 موظفا استخدموا القانون الجديد لتقديم شكاوى ضد أماكن عملهم، وذلك بحلول 29 أغسطس أي بمعدل 17.9 قضية في المتوسط يوميا.

الدراسة تقترح أن الذكاء الاصطناعي بإمكانه أن يساعد الناس في تفنيد نظريات المؤامرة
الدراسة تقترح أن الذكاء الاصطناعي بإمكانه أن يساعد الناس في تفنيد نظريات المؤامرة

أشارت دراسة نشرتها مجلة "ساينس"الأميركية مؤخرا إلى نجاح باحثين في تطوير روبوت يعتمد على الذكاء الاصطناعي، للدخول في نقاش مع أشخاص يصدقون نظريات مؤامرة منتشرة على الإنترنت، وإقناعهم بتغيير آرائهم. 

الدراسة التي نشرت الخميس، مولها معهد ماساتشوستس للتكنولوجيا بالتعاون مع مؤسسة جون تمبلتون، وأثبتت أنه بإمكان استخدام الذكاء الاصطناعي، أن يلمع صورته التي أصبحت مرتبطة بنشر المعلومات المضللة، كي يتمكن من محاربتها.

وقام فريق الباحثين الذي قاده أستاذ علم النفس في الجامعة الأميركية، توماس كوستيلو، بتصميم روبوت محاور، "تشات بوت"، باستخدام برمجية "تشات جي بي تي 4"، وهي أحدث إصدارات النماذج اللغوية لشركة "أوبن إيه آي"، ومقرها سان فرانسيسكو، شمال ولاية كاليفورنيا. 

وفي مرحلة موالية تم تدريب ذلك الروبوت على الحوار والنقاش، باستخدام قاعدة بيانات ضخمة، تتضمن معلومات متنوعة في عدة مجالات، مثل الصحة والتغير المناخي والأفكار السياسية المتطرفة.

شملت الدراسة عينة تتضمن أكثر من ألفي شخص، تم اختيارهم طبقا لمعطيات مركز الإحصاء الوطني الأميركي، حتى تعكس الخصائص الأساسية للمجتمع الأميركي، من النواحي العرقية والثقافية والفئة العمرية وغيرها. 

وأجاب المشاركون على سؤال يتعلق بفحوى الأفكار والمفاهيم التي توصف بأنها نظريات مؤامرة مخالفة للواقع، والتي يؤمنون بها. وبناء على تلك الإجابات، دخل الروبوت الجديد في حوار مع جميع الأشخاص المشاركين في الدراسة.

يشير كوستيلو إلى أن حواراً قصيراً مع برنامج محاورة يعتمد على الذكاء الاصطناعي، يمكن أن يقلص مصداقية نظريات المؤامرة، بنسبة قد تصل إلى 20 في المئة. ويأتي هذا التأكيد بعد تحليل لنتائج الحوار الذي خاضه الروبوت مع المشاركين في الدراسة، والآراء التي خرجوا بها بعد انتهاء التجربة.

لكن العلماء أشاروا إلى الحاجة لمزيد من الأبحاث المماثلة، تهدف إلى تصميم نماذج معيارية للذكاء الاصطناعي، بإمكانها تفنيد نظريات المؤامرة التي ظهرت حديثاً أو منذ مدة قصيرة، ولم يتم تداول الكثير من المعلومات حولها. إذ يعتمد نجاح الروبوت المحاور على قاعدة البيانات الضخمة، التي تمكنه من تقديم أدلة ملموسة أثناء النقاش، قصد مواجهة الأفكار المضللة، والمعلومات المزيفة. وهو ما قد يقلل من فرص نجاح الروبوت في تفنيد الأفكار البسيطة أو تلك التي تنتشر بسرعة عقب ظهورها.

تأتي هذه الدراسة بالتزامن مع تصاعد المخاوف من الاستخدام المتزايد للذكاء الاصطناعي لإنتاج محتوى مزيف، يتم نشره للتأثير على الرأي العام. إذ يمكن الذكاء الاصطناعي من جعل عمليات التضليل الإعلامي تدار بطريقة آلية، ما يمنحها زخما أكبر، وانتشاراً أوسع.  

وكانت صحيفة نيويورك تايمز أشارت إلى الاستخدام المتزايد للروبوتات المعتمدة على الذكاء الاصطناعي في الحملات الدعائية على وسائل التواصل الاجتماعي. 

وتمكنت تلك الروبوتات من التفاعل مع أعداد كبيرة من الأشخاص عبر توجيه أسئلة وتعليقات مباشرة، وخلال حيز زمني قصير، في محاكاة ردود الفعل البشرية.

تتزايد المخاوف أيضاً من استخدام دول وحكومات للذكاء الاصطناعي في حملاتها الدعائية، مثل الاتهامات الموجهة لروسيا وإيران بمحاولة التأثير على الانتخابات الأميركية، والتي أثارت الكثير من الجدل السياسي في الولايات المتحدة.