مقدم نشرات افتراضي (روبوت)
مقدم نشرات افتراضي (روبوت)

"سأعمل بلا كلل لإبقائك على اطلاع، إذ سيتم كتابة النصوص في نظامي دون انقطاع."

بهذه المقدمة استقبل مقدم النشرة الافتراضي متابعي قناة Xinhua News الصينية، التي كانت السباقة في اعتماد نظام تقديم أخبار على مدار الساعة بمذيعيين آليين.

​​وخلال مؤتمر الإنترنت العالمي الذي انعقد في شهر تشرين الثاني/ نوفمبر 2018، تم تقديم "النسخة" الافتراضية لمقدم النشرات الإخبارية المعروف في الصين "تشانغ زو"، كبديل لنظام تقديم الأخبار التي يتكفل بها حتى الآن صحافيون بشر.

مصاريف أقل.. أرباح أكثر!

 يقول خبراء إن الفكرة استعصت في البداية على المتتبعين حين اعتمدتها وكالة أسوشيتد برس، عند تغطيتها لمباريات لعبة البيسبول بأحدث طرق النقل الإلكتروني المباشر، دون الاعتماد على طاقات بشرية.

من منظور تجاري، يعد الاعتماد على الروبوت أمرا غير مكلف إضافة إلى أن المذيع الآلي لا يطلب علاوات على خدمات إضافية.

ويبرز المدافعون عن هذا النوع من "الصحافيين" عامل الدقة والسرعة في العمل الإخباري، بدليل برنامج Planet Money الذي تعده القناة الحكومية الأميركية NPR، والذي أثبت تفوق الروبوت من خلال مسابقة للكتابة بين صحافي بشري وآخر افتراضي، إذ فاز الأخير في النهاية بفارق واضح.

أخطاء بشرية

لكن من الواضح أن الصحافي الافتراضي يقع في أخطاء تحريرية مثله مثل الصحافي البشري، وإن حدث وأن ارتكب الصحافي الافتراضي خطأ يتعلق بالتشهير مثلا، فمن الصعب تحديد المسؤولية القانونية في هذه الحالة.

​​هذه الحيثية أثارها خبراء قانونيون وتكنولوجيون، إذ أجمع الكثير منهم على ضرورة تحديد المسؤوليات في حالة وقوع خطأ صحافي يمس بشرف أو بسمعة شخص ما.

وأصدرت المحكمة العليا في الولايات المتحدة في النصف الثاني من القرن الماضي، جملة من القوانين يحتكم إليها الجميع في حالات الأخطاء الصحافية التي ينجم عنها مساس جدي بشخصية الأفراد والجماعات.

لكن تطبيق أي حكم يجب أن يستند إلى دلائل وقرائن تثبت "سوء النية والتعمد"، فهل يمكن الحديث عن آليات إثبات لذلك إذا تعلق الأمر بروبوتات صحافية؟

الخبيرة في القانون، وعميدة كلية الحقوق بجامعة ميزوري، ليريسا ليدزكي ترى أن تحديد المسؤولية القانونية مع روبوت صحافي يقوم على خوارزميات، صعب للغاية.

رأي ليدزكي يقوم على واقع علمي، فبالرغم من أن مبرمج الروبوت عالم بشري إلا أنه لا يستطيع التنبؤ بجميع ما قد يكتبه هذا الصحافي بخصوص أي موضوع أو شخصية.

لكن المختصة نفسها تتنبأ بحل وشيك لهذه المعضلة، على أساس "التراكم المعرفي الذي ستفرزه حتما التجربة على مر السنين الآتية".

​​والمسؤولية الأخلاقية؟

لكن الأستاذة المساعدة في جامعة تكساس في أوستن، إيمي كريستين ساندرز، تقول إن بالإمكان تحديد المسؤوليات مسبقا عن طريق حسن اختيار المبرمجين.

"على المنظمات الإخبارية أن تكون حريصة حقا بشأن من تقوم بتعيينهم للمشاركة في هذا النوع من مجالات تطوير التكنولوجيا"، تؤكد ساندرز.

ساندرز واحدة من ثلاثة باحثين شاركوا في تأليف دراسة حديثة تسلط الضوء على الطريقة المعقدة لتحديد الخطأ عندما يتم اتهام روبوت بارتكاب التشهير، ومع ذلك، فهي تعتقد أن هذه الحالات مرتبطة ارتباطا وثيقا بمن برمج هذه الآلات من البشر.

ويبرز آخرون ضرورة عدم تتبع خطى المبرمجين لتحديد المسؤول عن أي خطأ صحافي يتعلق بالتشهير، لأن ذلك يشتت جهود القانونيين ويبعدهم عن المسؤول الحقيقي المتمثل في المؤسسة الإعلامية نفسها التي اعتمدت الروبوت وبالتالي "تتحمل المسؤولية الأخلاقية" أمام القانون.

 

 

مخاوف من الأضرار التي قد تسببها التقنيات العصبية بدون ضوابط
مخاوف من الأضرار التي قد تسببها التقنيات العصبية بدون ضوابط

حذرت الأمم المتحدة، الأربعاء، من المخاطر "غير المسبوقة" التي تشكلها التقنيات العصبية على خصوصية الأفراد واستقلاليتهم، رغم "إمكانياتها الهائلة" في الطب والاتصالات والبحوث.

وفي كلمتها أمام مجلس حقوق الإنسان في دورته الـ58، قالت آنا نوغريس، مقررة الأمم المتحدة الخاصة بالحق في الخصوصية، إن هذه التقنيات، التي يمكنها تسجيل وفك تشفير وحتى تعديل نشاط الدماغ، "تثير تحديات أخلاقية وقانونية قد تؤثر على الحقوق الأساسية، خصوصًا الحق في الخصوصية".

وسلط تقرير الخبيرة الأممية الضوء على فوائد ومخاطر التقنيات العصبية.

وأكد أنه على الرغم من أنها تُقدم حلولا رائدة لعلاج الاضطرابات العصبية، وتحسين الوظائف الإدراكية، وتوسيع القدرات البشرية، إلا أنه أشار إلى قدرة التقنيات العصبية على الوصول إلى أفكار الأفراد ومشاعرهم الحميمية، محذرا من مخاطر المراقبة غير المصرح بها أو الإكراه.

وأوضحت نوغريس أن الوصول غير المصرح به إلى نشاط الدماغ قد يستغل للتأثير على القرارات الشخصية والسلوكيات والأيديولوجيات، مما يُضعف الاستقلالية الشخصية والسلامة العقلية.

كما حذرت من إمكانية تحفيز أنماط عصبية معينة بشكل مصطنع، مما قد يؤدي إلى تشكيل الآراء أو المشاعر أو حتى الذكريات، وهو ما يمثل تهديدا جوهريا للإرادة الحرة.

وأشار التقرير إلى أن معالجة البيانات العصبية قد تؤدي إلى شكل جديد من التمييز، مما يعمّق التفاوتات الاجتماعية ويخلق فئة جديدة من الأفراد المهمشين بناءً على خصائصهم العصبية.

كما نبه إلى مخاطر اختراق هذه التقنيات التي تربط نشاط الدماغ بالشبكات الرقمية، مما قد يعرض الأفراد لسرقة الهوية أو السماح لجهات خارجية بالتأثير على نشاطهم العصبي عن بعد.

وشددت الخبيرة الأممية على أن تنظيم التقنيات العصبية ليس مجرد ضرورة قانونية، بل هو ضرورة أخلاقية، مؤكدة أن التحرك الفوري لوضع ضمانات صارمة هو أمر أساسي لضمان استخدام هذه التقنيات لخدمة البشرية بدلا من استغلالها.