ميتا تشغل مواقع فيسبوك وانستاغرام وواتس اب
ميتا تشغل مواقع فيسبوك وانستاغرام وواتس اب

عمل موقع فيسبوك بجد خلال العام الأخير لتنقية المحتوى الموجود على منصاته، بعد أن اكتشف أن معظم المنشورات التي حصلت على أرقام متابعة عالية كانت منشورات "قمامة" كما تصفها صحيفة وول ستريت جورنال، في إشارة إلى وجود إساءات لفظية أو محتوى جنسي في المنشورات.

وتقول فيسبوك، بحسب الصحيفة، إنها متفائلة بحذر بالتقدم الذي أحرزته في الوقت الذي تعمل فيه على تحسين جودة المحتوى على المنصة.

وفي وقت سابق من هذا العام، كان كل محتوى Facebook الأعلى تفاعلا تقريبا يعتبر محتوى غير مرغوب فيه أو مفرطا في الجنس أو بشكل عام "مؤسف" بحسب تصنيف الشركة.

وطالما شعرت ميتا، الشركة الأم لفيسبوك، بالتردد في ممارسة الرقابة على ما ينتشر على منصتها، واثقة من أنظمة التوصية والمستخدمين لعرض أفضل محتوى.

وتقول وول ستريت جورنال إن المديرين التنفيذيين والباحثين في الشركة كانوا يشعرون بالحرج من أن تقرير المحتوى الذي تمت مشاهدته على نطاق واسع، وهو مسح ربع سنوي للمشاركات ذات الانتشار الأوسع، كان يهيمن عليه باستمرار الصور الكوميدية "ميمز" المسروقة والمنشورات "click baits" والرسائل غير المرغوب فيها للمتاجر عبر الإنترنت، وفقا لوثائق اطلعت عليها صحيفة وول ستريت جورنال وأشخاص مطلعون على الموضوع.

مؤسس شركة فيسبوك مارك زوكربيرغ

وخشيت شركة ميتا من أنها تخاطر بتنفير المستخدمين والمعلنين، وفقا لتلك الوثائق والأشخاص.

وعلى مدى عدة أشهر، توصل أعضاء فرق منتجات ميتا وتجربة المستخدم والنزاهة إلى تعريفات أفضل للمحتوى منخفض الجودة واتفقوا على طرق يمكن للشركة من خلالها تجنب تضخيمه، وفقا للوثائق والأشخاص.

ويظهر تقرير المحتوى المرئي على نطاق واسع من Facebook للربع الثالث، والذي صدر، الثلاثاء، منشورا واحدا فقط تنطبق عليه معايير المحتوى منخفض الجودة من بين أعلى 20 منشورا.

وللمرة الأولى منذ بدء إعداد التقرير، لم تنتهك أي من المشاركات ال 20 الأولى قواعد المنصة.

وتشمل القائمة مقطع فيديو من تايلاند لأشخاص يعطون الإنعاش القلبي الرئوي لفيل، وصفحة مخصصة لاقتباسات جيدة عن النجاة من العنف المنزلي، وفيديو رجل توصيل يتمكن من إقناع كلب بإقامة علاقة ودية معه.

وقالت، آنا ستيبانوف، وهي مسؤولة تقييم نزاهة المحتوى في الموقع "نحن متفائلون بحذر بالتقدم الذي نحققه".

وتقول الصحيفة إن صراعات فيسبوك مع هذه القضية تسلط الضوء على تعقيدات الإشراف على المحتوى عبر وسائل التواصل الاجتماعي، بما في ذلك في تويتر المملوك لإيلون ماسك، حيث قال إن القضاء على الرسائل غير المرغوب فيها هي واحدة من أهم أولوياته حتى في الوقت الذي يريد فيه أن تكون المنصة معقلا لحرية التعبير.

ويمثل تقدم فيسبوك في مكافحة المحتوى منخفض الجودة منعطفا متفائلا للتقرير الفصلي، الذي بدأت الشركة في إنتاجه في عام 2021 لمواجهة الرواية القائلة بأنها تعزز المنشورات المثيرة للانقسام.

كجزء من جهودها في "غرفة عمليات جودة المحتوى" الجديدة ، سعت الشركة إلى تحديد أفضل لما جعل المستخدمين يشعرون بأن المنشور كان غير مناسب، وتركز الجهد على إيجاد طرق لقياس "السمات غير الجمالية، وعدم الأصالة، والنزاهة المنخفضة  والمحتوى "منخفض السعرات الحرارية" ، كما كتب أحد المسؤولين في وقت لاحق.

كما قامت الشركة ببناء نظام منفصل خصيصا لتحديد المحتوى منخفض الجودة في Reels، وهي مقاطع فيديو قصيرة انتشرت مؤخرا على فيسبوك، والذي لم يتضمن فقط انتهاكات القواعد مثل خطاب الكراهية والعري والإغراء الجنسي ولكن ما إذا كان الفيديو يحتوي على "مضيعة للوقت".

وفي ملخص عام للتقرير صدر، الثلاثاء، قالت الشركة إن التقرير يعكس اكتشافا أفضل للمحتوى غير المرغوب فيه، والجهود المبذولة للقضاء على الكيانات "التي تتظاهر بأنها في بلد ما بينما تكون في الواقع في بلد آخر".

ولا يزال من غير الواضح إلى أي مدى ستذهب دفعة الجودة في وقت انخفض فيه عدد الموظفين والميزانيات الأصغر حجما في ميتا، التي سرحت مؤخرا 13٪ من موظفيها.

وكلاء الذكاء الاصطناعي

في عالم يتسابق باتجاه التحول الرقمي الكامل، لم يعد الذكاء الاصطناعي خيالا علميا، بل محركا صامتا يعيد تشكيل وجودنا في العمل وفي التفاعل الاجتماعي وأنماط العيش.

 من الصوت داخل هاتفك، إلى الروبوت على خط الإنتاج، أصبح وكلاء الذكاء الاصطناعي جزءا أساسيا من حياتنا اليومية.

من هم هؤلاء الوكلاء؟ 

كيف يعملون؟ 

ولماذا التحذيرات من أننا قد نفقد السيطرة عليهم؟

وكيل الذكاء الاصطناعي

افترض أنك تستيقظ صباحا وتطلب من هاتفك ترتيب جدول أعمالك، أو أن تقودك سيارتك إلى العمل بينما تتصفح أنت كومبيوترك اللوحي، أو أن يقترح عليك تلفزيونك الذكي مشاهدة فليم يناسب مزاجك.

هذه المهام تعتمد كلها على وكلاء الذكاء الاصطناعي.

في اللغة الرقمية، وكيل الذكاء الاصطناعي هو نظام برمجي ذكي قادر على إدراك البيئة المحيطة، وتحليل البيانات، واتخاذ قرارات لتحقيق أهداف محددة، وغالبا دون تدخل بشري مباشر. 

مرة أخرى، يمكن أن يكون الوكيل مساعدا صوتيا مثل "سيري" أو "أليكسا"، أو نظام تخصيص "أو توصيات" مثل نتفليكس وأمازون، أو روبوتا صناعيا يعمل على خطوط الإنتاج.

يتفاعل بعض الوكلاء مع المحفزات الآنية، بينما يعتمد البعض الآخر على أهداف محددة أو قرارات مبنية على تعظيم الفائدة. وهناك من يتعلم باستمرار من تجاربه — ليحسن أداءه مع الوقت.

مشهد الابتكار... والقلق

يوفر الذكاء الاصطناعي إمكانات هائلة. ففي التصنيع، تعمل الروبوتات بدقة وكفاءة. في الطب، تساعد الأنظمة الذكية في التشخيص. وفي عالم الأموال، تقود أنظمة الكشف عن الاحتيال وتقدم مقترحات بشأن الاستثمارات.

يساهم وكالاء الذكاء الاصطناعي في، زيادة الإنتاجية، وتقليل التكاليف التشغيلية، ودعم اتخاذ قرارات أكثر ذكاء، وفي تقديم خدمات يمكن توسيعها وتكييفها.

لكن فوائد الوكلاء تسير يدا بيد مع مخاطر موازية. يمكن التلاعب بوكلاء الذكاء الاصطناعي أو اختراقهم. وقد يرثون الانحياز البشري بناء على بيانات غير موضوعية. ويمكن أن يؤدي الإفراط في الاعتماد على الوكلاء إلى تآكل المهارات البشرية الأساسية. 

والأسوأ، إن لم نضبطهم بشكل صحيح، قد يتصرفون بطريقة مفاجئة وربما ضارة.

تحذير الأب الروحي

"أسرع مما توقعه كثيرون،" يقول جيفري هينتون، المعروف بـ"الأب الروحي للذكاء الاصطناعي،" الحائز على جائزة نوبل، في مقابلة مع شبكة CBS News، تعبيرا عن قلقه من سرعة تطور وكلاء الذكاء الاصطناعي.

"علينا أن نبدأ الآن في التفكير بكيفية تنظيم هذه الأنظمة،" يضيف، "الخطر لا يقتصر على استبدال الوظائف، بل يشمل إمكانية أن تتجاوز قدراتنا الفكرية".

وأشار إلى هينتون إلى أن بعض أنظمة الذكاء الاصطناعي بدأت باتخاذ قرارات ذاتية دون رقابة بشرية، وذكر تطبيقات عسكرية واستخدامات مثيرة للجدل مثل اختيار الأجنة.

ويحذر هينتون من أن القوانين الخاصة بالذكاء الاصطناعي غير كافية حتى الآن، وخطيرة.

التحدي الأكبر: السيطرة

الخوف لم يعد نظريا فقط. فبعض النماذج الحالية قادرة على التعلم الذاتي وحل المشكلات بشكل مستقل ما يعقد محاولات السيطرة عليها.

وفي الحديث عن علاقتنا بالذكاء الاصطناعي، يبرز سؤال أساسي : هل يمكننا ضمان توافق هؤلاء الوكلاء مع القيم الإنسانية؟ وماذا إذا لم نتمكن من ذلك؟

تبقى المخاطر باهظة الكلفة. إذ يؤدي غياب التوافق الأخلاقي إلى مراقبات جماعية، ونشر معلومات مضللة، بما يهدد السلامة العامة والديمقراطيات في الدول الديمقراطية. 

ويزعم نقاد الآلة أن الشركات الكبرى تنشر نماذج قوية دون رقابة كافية، وتُفضل الربح على السلامة العامة.

الموازنة بين التقدم والأخلاق

وللمضي في هذا المسار، يدعو خبراء إلى تأسيس أطر تنظيمية عالمية تتضمن المبادئ الأخلاقية والشفافية والمساءلة لتطوير وكلاء الذكاء الاصطناعي.

ويرى الخبراء ألا غنى عن السياق الثقافي. ففي بعض المجتمعات، قد تلعب قيم راسخة في خلق فجوة في الوعي الرقمي. لذلك، لا يكفي التطور التقني، بل يتطلب أيضا بناء الثقة المجتمعية.

الطريق إلى الأمام

الذكاء الاصطناعي سيف ذو حدين. إنه مفتاح لحل بعض أعقد مشكلات البشرية، إذا تمت إدارته بحكمة.

ومع تزايد المخاوف بشأن استقلالية وكلاء الذكاء الاصطناعي، تصبح الحاجة لتطويرهم وتوجيههم أكثر إلحاحا.