Accessibility links

من يتحمل مسؤولية أخطاء المذيع الروبوت؟


مقدم نشرات افتراضي (روبوت)

"سأعمل بلا كلل لإبقائك على اطلاع، إذ سيتم كتابة النصوص في نظامي دون انقطاع."

بهذه المقدمة استقبل مقدم النشرة الافتراضي متابعي قناة Xinhua News الصينية، التي كانت السباقة في اعتماد نظام تقديم أخبار على مدار الساعة بمذيعيين آليين.

وخلال مؤتمر الإنترنت العالمي الذي انعقد في شهر تشرين الثاني/ نوفمبر 2018، تم تقديم "النسخة" الافتراضية لمقدم النشرات الإخبارية المعروف في الصين "تشانغ زو"، كبديل لنظام تقديم الأخبار التي يتكفل بها حتى الآن صحافيون بشر.

مصاريف أقل.. أرباح أكثر!

يقول خبراء إن الفكرة استعصت في البداية على المتتبعين حين اعتمدتها وكالة أسوشيتد برس، عند تغطيتها لمباريات لعبة البيسبول بأحدث طرق النقل الإلكتروني المباشر، دون الاعتماد على طاقات بشرية.

من منظور تجاري، يعد الاعتماد على الروبوت أمرا غير مكلف إضافة إلى أن المذيع الآلي لا يطلب علاوات على خدمات إضافية.

ويبرز المدافعون عن هذا النوع من "الصحافيين" عامل الدقة والسرعة في العمل الإخباري، بدليل برنامج Planet Money الذي تعده القناة الحكومية الأميركية NPR، والذي أثبت تفوق الروبوت من خلال مسابقة للكتابة بين صحافي بشري وآخر افتراضي، إذ فاز الأخير في النهاية بفارق واضح.

أخطاء بشرية

لكن من الواضح أن الصحافي الافتراضي يقع في أخطاء تحريرية مثله مثل الصحافي البشري، وإن حدث وأن ارتكب الصحافي الافتراضي خطأ يتعلق بالتشهير مثلا، فمن الصعب تحديد المسؤولية القانونية في هذه الحالة.

هذه الحيثية أثارها خبراء قانونيون وتكنولوجيون، إذ أجمع الكثير منهم على ضرورة تحديد المسؤوليات في حالة وقوع خطأ صحافي يمس بشرف أو بسمعة شخص ما.

وأصدرت المحكمة العليا في الولايات المتحدة في النصف الثاني من القرن الماضي، جملة من القوانين يحتكم إليها الجميع في حالات الأخطاء الصحافية التي ينجم عنها مساس جدي بشخصية الأفراد والجماعات.

لكن تطبيق أي حكم يجب أن يستند إلى دلائل وقرائن تثبت "سوء النية والتعمد"، فهل يمكن الحديث عن آليات إثبات لذلك إذا تعلق الأمر بروبوتات صحافية؟

الخبيرة في القانون، وعميدة كلية الحقوق بجامعة ميزوري، ليريسا ليدزكي ترى أن تحديد المسؤولية القانونية مع روبوت صحافي يقوم على خوارزميات، صعب للغاية.

رأي ليدزكي يقوم على واقع علمي، فبالرغم من أن مبرمج الروبوت عالم بشري إلا أنه لا يستطيع التنبؤ بجميع ما قد يكتبه هذا الصحافي بخصوص أي موضوع أو شخصية.

لكن المختصة نفسها تتنبأ بحل وشيك لهذه المعضلة، على أساس "التراكم المعرفي الذي ستفرزه حتما التجربة على مر السنين الآتية".

والمسؤولية الأخلاقية؟

لكن الأستاذة المساعدة في جامعة تكساس في أوستن، إيمي كريستين ساندرز، تقول إن بالإمكان تحديد المسؤوليات مسبقا عن طريق حسن اختيار المبرمجين.

"على المنظمات الإخبارية أن تكون حريصة حقا بشأن من تقوم بتعيينهم للمشاركة في هذا النوع من مجالات تطوير التكنولوجيا"، تؤكد ساندرز.

ساندرز واحدة من ثلاثة باحثين شاركوا في تأليف دراسة حديثة تسلط الضوء على الطريقة المعقدة لتحديد الخطأ عندما يتم اتهام روبوت بارتكاب التشهير، ومع ذلك، فهي تعتقد أن هذه الحالات مرتبطة ارتباطا وثيقا بمن برمج هذه الآلات من البشر.

ويبرز آخرون ضرورة عدم تتبع خطى المبرمجين لتحديد المسؤول عن أي خطأ صحافي يتعلق بالتشهير، لأن ذلك يشتت جهود القانونيين ويبعدهم عن المسؤول الحقيقي المتمثل في المؤسسة الإعلامية نفسها التي اعتمدت الروبوت وبالتالي "تتحمل المسؤولية الأخلاقية" أمام القانون.

XS
SM
MD
LG