مخاوف من استخدام الذكاء الاصطناعي من قبل المحتالين
مخاوف من استخدام الذكاء الاصطناعي من قبل المحتالين

يثير التطور المستمر ببرامج الذكاء الاصطناعي مخاوف من تأثيرها السلبي المحتمل، وتبعات استخدامها بشكل خاطئ، من قبل مجرمين أو محتالين. 

ودفع ذلك عددا من قادة التكنولوجيا، بمن فيهم إيلون ماسك، والمشارك في تأسيس شركة أبل، ستيف وزنياك، إلى التوقيع، مع آخرين، على عريضة تطالب شركة "أوبن أيه آي" الناشئة التي أطلقت برنامج الدردشة الآلي "تشات جي بي تي" في نوفمبر الماضي، بتعليق التطوير لمدة ستة أشهر، حتى يمكن تدقيقها والإشراف عليها من قبل خبراء مستقلين. 

وتلك ليست مبالغة في المخاوف، إذ أن محتالين يستخدمون حاليا تقنيات الاحتيال المتطورة التي تعتمد على الذكاء الاصطناعي، وقد نجحوا العام الماضي في سرقة ما يقرب من 11 مليون دولار من أفراد، عبر اختلاق أصوات أحبائهم أو أطبائهم، وطلب أموال من أقاربهم وأصدقائهم، بحسب صحيفة "الغارديان".

وأصدرت لجنة التجارة الفدرالية الأميركية، تحذيرا في 20 مارس الماضي، من أن المحتالين يستخدمون الذكاء الاصطناعي من خلال استنساخ الأصوات. 

وأوضحت: "(إذا) تلقيت مكالمة وسمعت صوتا مذعورا على الخط من حفيدك يخبرك بأنه في مشكلة كبيرة ولكن يمكنك المساعدة عن طريق إرسال الأموال. لا تثق في الصوت. اتصل بالشخص الذي من المفترض أنه اتصل بك وتحقق من القصة. إذا لم تتمكن من الوصول إلى من تحب، فحاول الاتصال به من خلال فرد آخر من العائلة أو من خلال أصدقائهم". 

وأضافت اللجنة "كل ما يحتاجه المحتال مقطع صوتي قصير لصوت واحد من أفراد عائلتك، ويمكنه الحصول عليه من المحتوى المنشور عبر الإنترنت، وبرنامج استنساخ الصوت". 

ويذكر تقرير لصحيفة "الغارديان" أن هذه الحوادث لا تقتصر على الأفراد فقط، بل تسقط الشركات بمختلف أحجامها بسرعة ضحية لهذا النوع الجديد من الاحتيال.

وتورد "الغارديان" مثالا لما حدث مع موظف بنك في هونغ كونغ، تلقى مكالمات مزيفة من مدير بنك يطلب منه تحويلا بمبلغ 35 مليون دولار، وهو ما نفذه بالفعل. 

ووقعت حادثة مماثلة في شركة طاقة مقرها المملكة المتحدة، حيث قام موظف عن غير قصد بتحويل ما يقرب من 250 ألف دولار إلى المجرمين، اعتقادا منه بأن المستلم هو الرئيس التنفيذي للشركة الأم. 

يحذر مكتب التحقيقات الفيدرالي الآن الشركات من أن المجرمين يستخدمون تقنية التزييف العميق خلال مقابلات عمل لشغل وظائف عن بعد، من أجل الوصول إلى معلومات الشركة.

وتزايد استخدام تقنيات التزييف العميق للفيديو على مدار السنوات القليلة الماضية، واستهدفت في الغالب مشاهير وسياسيين، مثل مارك زوكربيرغ وتوم كروز وباراك أوباما ودونالد ترامب، وربما ستتزايد مثل هذه الفيديوهات مع اقتراب الانتخابات الرئاسية الأميركية العام المقبل.

وينصح الخبراء بأخذ الحيطة والحذر خلال التعامل مع المكالمات الهاتفية المتعلقة بالأمور المالية والتحويلات. 

وتقول صحيفة "الغارديان": "هذا يعني أنه لا ينبغي السماح لأي مدير مالي في عملك بإجراء أي معاملة مالية مثل تحويل نقود بناء على مكالمة هاتفية واردة، حتى لو كانت من الرئيس التنفيذي للشركة.. يجب التحقق". 

كما تنصح بأنه يجب عدم الموافقة على أي معاملة تتجاوز مبلغا محددا مسبقا دون الحصول على موافقة كتابية مسبقة من العديد من المديرين التنفيذيين في الشركة. 

وحذّرت وكالة الشرطة الأوروبية "يوروبول"، الشهر الماضي من خطر أن يستغل مجرمون "تشات جي بي تي" لممارسة عمليات احتيال أو ارتكاب جرائم سيبرانية.

وأشارت الوكالة إلى أنّ الذكاء الاصطناعي لا يزال في بداياته، متوقّعة أن "تتحسّن قدراته مع الوقت".

وأكّدت الوكالة على "الأهمية القصوى لتعزيز التوعية في هذا الشأن، بغية ضمان اكتشاف أيّ ثغرة محتملة ومعالجتها بأسرع وقت ممكن".

وكلاء الذكاء الاصطناعي

في عالم يتسابق باتجاه التحول الرقمي الكامل، لم يعد الذكاء الاصطناعي خيالا علميا، بل محركا صامتا يعيد تشكيل وجودنا في العمل وفي التفاعل الاجتماعي وأنماط العيش.

 من الصوت داخل هاتفك، إلى الروبوت على خط الإنتاج، أصبح وكلاء الذكاء الاصطناعي جزءا أساسيا من حياتنا اليومية.

من هم هؤلاء الوكلاء؟ 

كيف يعملون؟ 

ولماذا التحذيرات من أننا قد نفقد السيطرة عليهم؟

وكيل الذكاء الاصطناعي

افترض أنك تستيقظ صباحا وتطلب من هاتفك ترتيب جدول أعمالك، أو أن تقودك سيارتك إلى العمل بينما تتصفح أنت كومبيوترك اللوحي، أو أن يقترح عليك تلفزيونك الذكي مشاهدة فليم يناسب مزاجك.

هذه المهام تعتمد كلها على وكلاء الذكاء الاصطناعي.

في اللغة الرقمية، وكيل الذكاء الاصطناعي هو نظام برمجي ذكي قادر على إدراك البيئة المحيطة، وتحليل البيانات، واتخاذ قرارات لتحقيق أهداف محددة، وغالبا دون تدخل بشري مباشر. 

مرة أخرى، يمكن أن يكون الوكيل مساعدا صوتيا مثل "سيري" أو "أليكسا"، أو نظام تخصيص "أو توصيات" مثل نتفليكس وأمازون، أو روبوتا صناعيا يعمل على خطوط الإنتاج.

يتفاعل بعض الوكلاء مع المحفزات الآنية، بينما يعتمد البعض الآخر على أهداف محددة أو قرارات مبنية على تعظيم الفائدة. وهناك من يتعلم باستمرار من تجاربه — ليحسن أداءه مع الوقت.

مشهد الابتكار... والقلق

يوفر الذكاء الاصطناعي إمكانات هائلة. ففي التصنيع، تعمل الروبوتات بدقة وكفاءة. في الطب، تساعد الأنظمة الذكية في التشخيص. وفي عالم الأموال، تقود أنظمة الكشف عن الاحتيال وتقدم مقترحات بشأن الاستثمارات.

يساهم وكالاء الذكاء الاصطناعي في، زيادة الإنتاجية، وتقليل التكاليف التشغيلية، ودعم اتخاذ قرارات أكثر ذكاء، وفي تقديم خدمات يمكن توسيعها وتكييفها.

لكن فوائد الوكلاء تسير يدا بيد مع مخاطر موازية. يمكن التلاعب بوكلاء الذكاء الاصطناعي أو اختراقهم. وقد يرثون الانحياز البشري بناء على بيانات غير موضوعية. ويمكن أن يؤدي الإفراط في الاعتماد على الوكلاء إلى تآكل المهارات البشرية الأساسية. 

والأسوأ، إن لم نضبطهم بشكل صحيح، قد يتصرفون بطريقة مفاجئة وربما ضارة.

تحذير الأب الروحي

"أسرع مما توقعه كثيرون،" يقول جيفري هينتون، المعروف بـ"الأب الروحي للذكاء الاصطناعي،" الحائز على جائزة نوبل، في مقابلة مع شبكة CBS News، تعبيرا عن قلقه من سرعة تطور وكلاء الذكاء الاصطناعي.

"علينا أن نبدأ الآن في التفكير بكيفية تنظيم هذه الأنظمة،" يضيف، "الخطر لا يقتصر على استبدال الوظائف، بل يشمل إمكانية أن تتجاوز قدراتنا الفكرية".

وأشار إلى هينتون إلى أن بعض أنظمة الذكاء الاصطناعي بدأت باتخاذ قرارات ذاتية دون رقابة بشرية، وذكر تطبيقات عسكرية واستخدامات مثيرة للجدل مثل اختيار الأجنة.

ويحذر هينتون من أن القوانين الخاصة بالذكاء الاصطناعي غير كافية حتى الآن، وخطيرة.

التحدي الأكبر: السيطرة

الخوف لم يعد نظريا فقط. فبعض النماذج الحالية قادرة على التعلم الذاتي وحل المشكلات بشكل مستقل ما يعقد محاولات السيطرة عليها.

وفي الحديث عن علاقتنا بالذكاء الاصطناعي، يبرز سؤال أساسي : هل يمكننا ضمان توافق هؤلاء الوكلاء مع القيم الإنسانية؟ وماذا إذا لم نتمكن من ذلك؟

تبقى المخاطر باهظة الكلفة. إذ يؤدي غياب التوافق الأخلاقي إلى مراقبات جماعية، ونشر معلومات مضللة، بما يهدد السلامة العامة والديمقراطيات في الدول الديمقراطية. 

ويزعم نقاد الآلة أن الشركات الكبرى تنشر نماذج قوية دون رقابة كافية، وتُفضل الربح على السلامة العامة.

الموازنة بين التقدم والأخلاق

وللمضي في هذا المسار، يدعو خبراء إلى تأسيس أطر تنظيمية عالمية تتضمن المبادئ الأخلاقية والشفافية والمساءلة لتطوير وكلاء الذكاء الاصطناعي.

ويرى الخبراء ألا غنى عن السياق الثقافي. ففي بعض المجتمعات، قد تلعب قيم راسخة في خلق فجوة في الوعي الرقمي. لذلك، لا يكفي التطور التقني، بل يتطلب أيضا بناء الثقة المجتمعية.

الطريق إلى الأمام

الذكاء الاصطناعي سيف ذو حدين. إنه مفتاح لحل بعض أعقد مشكلات البشرية، إذا تمت إدارته بحكمة.

ومع تزايد المخاوف بشأن استقلالية وكلاء الذكاء الاصطناعي، تصبح الحاجة لتطويرهم وتوجيههم أكثر إلحاحا.