تحذيرات من استخدام برامج الذكاء الاصطناعي في جرائم احتيال أو لتنفيذ هجمات سيبرانية
تحذيرات من استخدام برامج الذكاء الاصطناعي في جرائم احتيال أو لتنفيذ هجمات سيبرانية

حذّرت وكالة الشرطة الأوروبية "يوروبول"، الاثنين، من خطر أن يستغلّ مجرمون منصّة "تشات جي بي تي" للذكاء الاصطناعي لممارسة عمليات احتيال أو ارتكاب جرائم سيبرانية.

ومن التصيّد الإلكتروني إلى التضليل مروراً بالبرمجيات الخبيثة، قد يسارع أشخاص سيّئو النوايا لاستغلال القدرات السريعة التطوّر لروبوتات الدردشة، وفق تقرير جديد لوكالة الشرطة الأوروبية.

وأطلقت منصّة "تشات جي بي تي"، التي أنشأتها الشركة الأميركية الناشئة "أوبن إيه آي" في نوفمبر، وسرعان ما ذاع صيتها مع انبهار المستخدمين بقدرتها على الإجابة بوضوح ودقّة على أسئلة صعبة، لا سيّما كتابة أغنيات أو شيفرات برمجية، وحتى النجاح في امتحانات.

وأعلنت "يوروبول" ومقرّها لاهاي أنّ "الاستغلال المحتمل لهذا النوع من أنظمة الذكاء الاصطناعي على أيدي مجرمين يطرح احتمالات قاتمة".

وأجرى "مختبر الابتكار" الجديد في يوروبول تجارب على استخدام روبوتات الدردشة بمجملها، لكنّه صبّ تركيزه على منصة "تشات جي بي تي" لأنها الأكثر رواجا واستخداما.

وشدّدت الوكالة على أنّ المجرمين قد يستخدمون "تشات جي بي تي" من أجل "تسريع عملية البحث بشكل كبير" في مجالات لا يفقهون فيها شيئاً، على غرار كتابة نصّ من أجل ارتكاب عملية احتيالية أو توفير معلومات حول "كيفية اقتحام منزل أو الإرهاب أو الجريمة السيبرانية أو استغلال الأطفال جنسياً".

وحذّرت يوروبول من أنّ قدرة روبوتات الدردشة على تقليد أنماط الكتابة جعلته فاعلاً بشكل كبير في إعداد رسائل بريد إلكتروني بغية "التصيّد"، وقدرته على إنتاج نص بشكل سريع تجعله "مثالياً لأغراض الدعاية والتضليل".

ويمكن أيضاً استخدام منصة "تشات جي بي تي" لكتابة برمجيات معلوماتية، من دون امتلاك المعارف التقنية.

وعلى الرّغم من أنّ "تشات جي بي تي" خاضع لضوابط على غرار اعتدال المحتوى الذي يمنع الروبوت من الإجابة على أسئلة مصنّفة مضرّة أو متحيّزة، إلا أنّ هذا الأمر يمكن الالتفاف عليه، بحسب يوروبول.

وأشارت الوكالة إلى أنّ الذكاء الاصطناعي لا يزال في بداياته، متوقّعة أن "تتحسّن قدراته مع الوقت".

وأكّدت الوكالة على "الأهمية القصوى لتعزيز التوعية في هذا الشأن، بغية ضمان اكتشاف أيّ ثغرة محتملة ومعالجتها بأسرع وقت ممكن".

جميع نماذج الذكاء الاصطناعي تتقارب في اختبارات القدرات
جميع نماذج الذكاء الاصطناعي تتقارب في اختبارات القدرات (صورة تعبيرية)

قالت شركة أميركية تنشط في مجال التكنولوجيا، إنها "اكتشفت الآلاف من العيوب ونقاط الضعف في أدوات الذكاء الاصطناعي التوليدية الشهيرة"، وأشارت إلى أن تلك الأدوات تنتج محتوى عنيفا أو جنسيا، وفق صحيفة "واشنطن بوست" الأميركية.

وقالت شركة "هييز لابس"، إن "أنشطتها تهدف إلى المساعدة في استئصال عيوب ونقاط ضعف الذكاء الاصطناعي، وتحديد الطرق الآمنة للتعامل مع تلك التقنيات".

وأشارت إلى أن بعض أدوات الذكاء الاصطناعي التوليدية أرشدت بعض المستخدمين لإنتاج أسلحة كيميائية وبيولوجية.

وأضحى الذكاء الاصطناعي مصدر قلق، مع قيام المزيد من الشركات بتوظيف الأدوات التوليدية في أنشطتها وفي إرشاد المستهلكين على منتجاتها. 

واجهت شركة غوغل، الشهر الماضي، موجة من الانتقادات، بسبب إحدى أدوات الذكاء الاصطناعي التوليدية المخصصة للإجابة على أسئلة المستخدمين

إذ أرشدت الأداة إلى أنشطة ضارة، مثل نصحها أحد المستفسرين بتناول صخرة صغيرة يوميا، كنوع من العلاج، أو إضافة الغراء إلى البيتزا، على نحو ما ذكرته الأداة لمستفسر آخر. 

وفي تقرير نشرته نهاية مايو الماضي، ذكرت صحيفة "وول ستريت جورنال" أن "معدل التحسن في أنظمة الذكاء الاصطناعي يتباطأ، وأن عدد التطبيقات أقل مما كان متصورا في الأصل، حتى بالنسبة لأكثرها قدرة".

وأشارت إلى أن معظم التحسينات النوعية والقابلة للقياس في نماذج الذكاء الاصطناعي، مثل "تشات جي بي تي" من "أوبين إيه أي"، و"جيمناي" من  غوغل، تحتاج إلى إدخال المزيد من البيانات إليها.

وفي فبراير، تعرضت شركة طيران كندا لسلسلة من الانتقادات، عندما وعد برنامج الدردشة الآلي الخاص بها، والمزود بتقنية الذكاء الاصطناعي، أحد المسافرين، بخصم مالي وهمي.

ونقلت "واشنطن بوست" عن جاك كلارك، من شركة أبحاث الذكاء الاصطناعي، قوله، إنه "مع انتشار أنظمة الذكاء الاصطناعي على نطاق واسع، سنحتاج إلى مجموعة أكبر من المؤسسات، لاختبار قدرات تلك الأنظمة، ولتجنب مشكلات السلامة".

ويلفت بعض الخبراء إلى أنه على الرغم من الجهود التي تبذلتها شركات الذكاء الاصطناعي الكبرى، إلا أنه لا يزال من السهل للغاية، إقناع هذه الأدوات بالقيام بأشياء، ليس من المفترض أن تفعلها.

ومع ذلك، يتصاعد الاعتماد على الذكاء الاصطناعي. إذ وجدت دراسة أجرتها مايكروسوفت و"لينكد إن"، أن 3 من كل 4 من المديرين والمتخصصين، يستخدمون الذكاء الاصطناعي في العمل.

وقال غراهام نيوبيغ، الأستاذ المشارك في علوم الكمبيوتر بجامعة كارنيغي ميلون، إن أدوات الرقابة الخاصة بالذكاء الاصطناعي التابعة لجهات خارجية مهمة، لأنها محايدة".

ولفت إلى أن أدوات الرقابة والأمان التابعة لجهة خارجية تتمتع بأداء أعلى، فيما يتعلق بالتدقيق، لأنه تم إنشاؤها بواسطة مؤسسة متخصصة، على عكس قيام كل شركة ببناء أدواتها المعنية بالرقابة والتدقيق.