شعار موقع يوتيوب
شعار موقع يوتيوب

قالت وكالة بلومبرغ نقلا عن ثلاثة مصادر إن مسؤولي موقع يوتيوب يضعون اللمسات الأخيرة على خطة لإنهاء ظهور الإعلانات على مقاطع الفيديو التي يرجح أن يشاهدها أطفال.

وقالت الوكالة إن الهدف من الخطوة إرضاء هيئة التجارة الفيدرالية التي تنظر في ما إذا كان الموقع قد انتهك قانون خصوصية الأطفال عبر الإنترنت (COPPA).

وقد توصل الجانبان إلى تسوية لكن لم يعلن يوتيوب تفاصيلها، وليس من الواضح ما إذا كانت خطوة منع ظهور الإعلانات هي جزء من هذه التسوية.

ونظرا لأن الإعلانات المستهدفة تعتمد على جمع المعلومات عن المستخدم، فإن القانون المشار إليه يمنع الشركات من توجيه هذه الإعلانات إلى الأطفال تحت سن 13 عاما دون استئذان آبائهم.

يذكر أنه في أبريل 2018، تقدمت مجموعة مستهلكين بشكوى إلى هيئة التجارة الفيدرالية قالوا فيها إن الموقع يجمع بانتظام معلومات عن الأطفال لاستخدامها في الإعلانات.

واقترحوا نقل مقاطع الفيديو الخاصة بالأطفال إلى التطبيق المخصص للأطفال، YouTube Kids، لكن جوزيف سيمونز، رئيس الهيئة، طرح على أصحاب الشكوى فكرة وقف الإعلانات في مقاطع الفيديو التي تصل الأطفال.

 

 

جميع نماذج الذكاء الاصطناعي تتقارب في اختبارات القدرات
جميع نماذج الذكاء الاصطناعي تتقارب في اختبارات القدرات (صورة تعبيرية)

قالت شركة أميركية تنشط في مجال التكنولوجيا، إنها "اكتشفت الآلاف من العيوب ونقاط الضعف في أدوات الذكاء الاصطناعي التوليدية الشهيرة"، وأشارت إلى أن تلك الأدوات تنتج محتوى عنيفا أو جنسيا، وفق صحيفة "واشنطن بوست" الأميركية.

وقالت شركة "هييز لابس"، إن "أنشطتها تهدف إلى المساعدة في استئصال عيوب ونقاط ضعف الذكاء الاصطناعي، وتحديد الطرق الآمنة للتعامل مع تلك التقنيات".

وأشارت إلى أن بعض أدوات الذكاء الاصطناعي التوليدية أرشدت بعض المستخدمين لإنتاج أسلحة كيميائية وبيولوجية.

وأضحى الذكاء الاصطناعي مصدر قلق، مع قيام المزيد من الشركات بتوظيف الأدوات التوليدية في أنشطتها وفي إرشاد المستهلكين على منتجاتها. 

واجهت شركة غوغل، الشهر الماضي، موجة من الانتقادات، بسبب إحدى أدوات الذكاء الاصطناعي التوليدية المخصصة للإجابة على أسئلة المستخدمين

إذ أرشدت الأداة إلى أنشطة ضارة، مثل نصحها أحد المستفسرين بتناول صخرة صغيرة يوميا، كنوع من العلاج، أو إضافة الغراء إلى البيتزا، على نحو ما ذكرته الأداة لمستفسر آخر. 

وفي تقرير نشرته نهاية مايو الماضي، ذكرت صحيفة "وول ستريت جورنال" أن "معدل التحسن في أنظمة الذكاء الاصطناعي يتباطأ، وأن عدد التطبيقات أقل مما كان متصورا في الأصل، حتى بالنسبة لأكثرها قدرة".

وأشارت إلى أن معظم التحسينات النوعية والقابلة للقياس في نماذج الذكاء الاصطناعي، مثل "تشات جي بي تي" من "أوبين إيه أي"، و"جيمناي" من  غوغل، تحتاج إلى إدخال المزيد من البيانات إليها.

وفي فبراير، تعرضت شركة طيران كندا لسلسلة من الانتقادات، عندما وعد برنامج الدردشة الآلي الخاص بها، والمزود بتقنية الذكاء الاصطناعي، أحد المسافرين، بخصم مالي وهمي.

ونقلت "واشنطن بوست" عن جاك كلارك، من شركة أبحاث الذكاء الاصطناعي، قوله، إنه "مع انتشار أنظمة الذكاء الاصطناعي على نطاق واسع، سنحتاج إلى مجموعة أكبر من المؤسسات، لاختبار قدرات تلك الأنظمة، ولتجنب مشكلات السلامة".

ويلفت بعض الخبراء إلى أنه على الرغم من الجهود التي تبذلتها شركات الذكاء الاصطناعي الكبرى، إلا أنه لا يزال من السهل للغاية، إقناع هذه الأدوات بالقيام بأشياء، ليس من المفترض أن تفعلها.

ومع ذلك، يتصاعد الاعتماد على الذكاء الاصطناعي. إذ وجدت دراسة أجرتها مايكروسوفت و"لينكد إن"، أن 3 من كل 4 من المديرين والمتخصصين، يستخدمون الذكاء الاصطناعي في العمل.

وقال غراهام نيوبيغ، الأستاذ المشارك في علوم الكمبيوتر بجامعة كارنيغي ميلون، إن أدوات الرقابة الخاصة بالذكاء الاصطناعي التابعة لجهات خارجية مهمة، لأنها محايدة".

ولفت إلى أن أدوات الرقابة والأمان التابعة لجهة خارجية تتمتع بأداء أعلى، فيما يتعلق بالتدقيق، لأنه تم إنشاؤها بواسطة مؤسسة متخصصة، على عكس قيام كل شركة ببناء أدواتها المعنية بالرقابة والتدقيق.