خبراء يحذرون من استغلال التطور التقني للذكاء الاصطناعي في خدمة الجريمة
خبراء يحذرون من استغلال التطور التقني للذكاء الاصطناعي في خدمة الجريمة | Source: Pexels

كشفت شركة "مايكروسوفت" مطلع فبراير، عن تفاصيل عملية قرصنة لبث تلفزيوني في دولة الإمارات، استخدم القراصنة فيها تقنيات التزييف العميق بواسطة الذكاء الاصطناعي لإظهار مذيع مفترض يقرأ تقريرا إخباريا مزيفاً يتناول الحرب بين إسرائيل وحماس في غزة، ويحاول التلاعب بمشاعر الرأي العام بالدولة الخليجية.

وفي الوقت ذاته، كانت ولاية نيوهامشير الأميركية شاهدة على عملية تزييف مشابهة باستخدام تقنيات الذكاء الاصطناعي لمخادعة، عبر استنساخ صوت الرئيس الأميركي، جو بايدن، في اتصالات هاتفية مزيفة دعت الناخبين إلى عدم المشاركة في الانتخابات الرئاسية التمهيدية.

وبين الواقعتين وقبلهما، شهد العالم عشرات الأحداث المشابهة التي تخللتها عمليات احتيال ومخادعة للجمهور بشكل عام أو للأفراد بصورة شخصية، كان المشترك الوحيد بينها، اعتمادها على الأدوات والإمكانات التي بات يتيحها الذكاء الاصطناعي لاسيما التوليدي منه، في عملية تزييف الحقائق والصور والأصوات، مما يضع العالم وجها لوجه أمام سيناريوهات مخيفة.

مقدم أخبار بتقنية الذكاء الاصطناعي ظهر وهو يقرأ تقريرا إخباريا مزيفا عن غزة
الغارديان: قراصنة مدعومون من إيران يخترقون خدمات بث تلفزيوني في الإمارات
ذكرت شركة "مايكروسوفت" أن مجموعة قرصنة مدعومة من قبل الحرس الثوري الإيراني تمكنت من اختراق منصات بث تلفزيوني في الإمارات باستخدام بث إخباري مُزيف عن حرب غزة أنشئ بواسطة الذكاء الاصطناعي، وفاق لصحيفة "الغارديان".

ولطالما حذر الخبراء من الدور الذي يمكن أن يلعبه التطور التقني للذكاء الاصطناعي في خدمة الجريمة والاحتيال الإلكتروني، وفي حماية العصابات والقراصنة من الكشف والملاحقة.

وبينما كانت المخاوف تتركز على دور الذكاء الاصطناعي في تطوير حملات التضليل ودعم الأخبار الزائفة للتلاعب بالجمهور والتأثير على الرأي العام وتزييف الحقائق بصورة شاملة، باتت المخاوف اليوم تتركز على ما يمكن أن يستهدف الأفراد والعائلات والشركات والكيانات بصورة خاصة وفردية وممنهجة، من قبل المحتالين والمبتزين باستخدام هذه التقنيات.

"من سيئ إلى أسوأ"

وبالنظر إلى الإمكانيات التي بات يوفرها الذكاء الاصطناعي تبدو المخاوف السابقة واقعية ومنطقية، بل وفي بعض الأحيان دون مستوى توقعات الخبراء في هذا المجال، الذين يرون أن ما يجري حالياً "ليس سوى البداية".

وبحسب الخبير في التحوّل الرقمي وأمن المعلومات، رولان أبي نجم، فإن الذكاء الاصطناعي مع كل ما ينتج عنه حالياً "لا يزال في مرحلة البدايات، والتطور المقبل سيجعل كشفه أصعب بكثير، وتأثيره أكبر أيضاً".

وأوضح: "سيصبح من المستحيل التمييز بين الحقيقة والتزييف"، وهو ما سينطبق على كل ما هو موجود على الإنترنت من فيديوهات، وصور، ونصوص، ومعلومات.

وأضاف في حديثه لموقع "الحرة"، أن الأمور تتجه "من سيئ إلى أسوأ"، في ظل التنامي والتطور اليومي لقدرات الذكاء الاصطناعي، مقابل التأخر العام عن المواكبة السريعة في تقنيات الكشف، وآليات المكافحة، وتشريعات التنظيم والمحاسبة.

وحذر أبي نجم من أن الذكاء الاصطناعي التوليدي لديه قدرة عالية على التزوير وعلى خداع الرأي العام وتسهيل عمليات احتيال كبيرة جداً.

من جانبه، يؤكد الخبير بالذكاء الاصطناعي والرئيس التنفيذي لشركة "Zaka" التكنولوجية، كريستوفر زغبي، أن أدوات الذكاء الاصطناعي أصبحت تمكن عصابات الاحتيال أكثر من القيام بعملياتهم، وتسهل الجرائم الإلكترونية وترفع وتيرتها.

وأضاف في حديث لموقع "الحرة"، أن "استخدام التكنولوجيا في عمليات الاحتيال والجرائم أمر سابق لظهور الذكاء الاصطناعي وأدواته التوليدية، وهو الحال مع كل تقنية جديدة يجري استخدامها".

واستدرك: "إلا أن الذكاء الاصطناعي بات أداة أسرع وأقوى بكثير، وبالتالي هي تقدم أساليب أكثر إقناعاً وإتقاناً".

وفي حين كان التزييف يصل إلى حد استنساخ الشكل وبعض الحركات أو إنتاج صور مزيفة، فإن الذكاء الاصطناعي، بحسب زغبي، جعل بالإمكان "استنساخ أسلوب الشخص في التحدث أو الكتابة، وتقليد سلوكه والتنبؤ بالأطباع والتصرفات بالإضافة إلى تزييف الصوت والصورة"، وهو ما بات يمكّن عصابات الاحتيال من أن يتحدثوا إلى معارف الشخص، أو زملاء العمل، أو أصدقائه، أو عائلته بأسلوبه والكلمات التي يستخدمها عادة.

احتيال بلا حدود

وكان العالم قد ضج بعملية احتيال أدت إلى خسارة شركة متعددة الجنسيات في هونغ كونغ نحو 26 مليون دولار أميركي بعد أن تعرض موظفوها لخداع من عصابة محتالين عبر مكالمة فيديو جماعية مزيفة عبر تقنية التزييف العميق، حيث انتحلوا شخصية المدير المالي للشركة وأشخاصاً آخرين في المكالمة، وأقنعوا الضحية بإجراء ما مجموعه 15 تحويلاً إلى 5 حسابات مصرفية، بحسب ما نقلت وكالة "بلومبيرغ".

الذكاء الاصطناعي بات يشكل الكثير من التحديات لمكافحي عمليات الاحتيال عبر الإنترنت (صورة تعبيرية)
"مكالمات من مديرك".. أحدث موجة من عمليات "نصب الذكاء الاصطناعي"
يبحث اللصوص والمحتالون عبر الإنترنت باستمرار عن طرق جديدة لخداع الأشخاص، ومن أحدث تلك الخدع انتحال شخصيات آخرين عن طريق محاكاة أصواتهم بواسطة تقنيات الذكاء الاصطناعي، ومن ثم النصب على الضحايا من خلال إيهامهم أن المتحدث هو قريبهم أو مديرهم أو أحد معارفهم، وفقا لما ذكرت وكالة "بلومبيرغ".

وبحسب "بلومبيرغ"، فإن أدوات تعديل الفيديوهات المدفوعة بالذكاء الاصطناعي فتحت مجالات أمام المحتالين كانت تعتبر آمنة في الماضي، مما يبرز سرعة تطور تقنية التزييف العميق خلال العام الماضي وحده، حيث أصبح الإعداد لعمليات الاحتيال المعقدة أسهل نسبياً، مما يدفع نحو عصر جديد من التشكيك.

ووفقاً لتقرير سابق نشره موقع "تالوس" بشأن كيفية استفادة المجرمين من التقدم الكبير لتقنيات الذكاء الاصطناعي، فإن تلك البرامج تساعد المستخدمين على إنشاء نصوص برمجية وتعديل الصور، وتبسيط عمليات المجرمين، وجعلها أكثر كفاءة وتطورا وقابلية للتوسع مع السماح لهم بالتهرب من الاكتشاف.

وتشمل الأعمال الخبيثة للمجرمين نشر المعلومات المضللة، وتعديل الصور بهدف الابتزاز الجنسي، وإنشاء برامج ضارة وخبيثة، وفقا لمتخصصين بقطاع التكنولوجيا والأمن السيبراني.

ويتطرق كل من أبي نجم والزغبي في حديثهما، للعديد من الأمثلة على ما يجري من جرائم تعتمد التزييف العميق باستخدام الذكاء الاصطناعي، من بينها عمليات تزييف الخطف، وذلك من خلال اتصالات مزيفة تتضمن مقاطع صوتية مستنسخة للضحايا المفترضين، بغية ابتزاز عائلاتهم والحصول على فدية مالية.

وكذلك بالنسبة إلى عمليات الاحتيال التي تقوم على تزييف طلب صديق أو قريب أو فرد من العائلة، للأموال بصورة عاجلة من خلال اتصالات وهمية أو فيديوهات أو مقاطع صوتية مفبركة بالتزييف العميق لخداع الضحايا.

وأصدرت لجنة الاتصالات الفيدرالية الأميركية في الثامن من فبراير الجاري، قرارا يحظر "فوريا" المكالمات الآلية الاحتيالية التي تتضمن أصواتا مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي، واتخذت إجراءات صارمة بشأن ذلك. 

وتمنح هذه الخطوة المدعين العامين المزيد من الأدوات القانونية، لملاحقة المتصلين الآليين غير القانونيين الذين يستخدمون الأصوات الناتجة عن الذكاء الاصطناعي لخداع الأميركيين.

القرار جاء بعد أسابيع من مكالمة آلية مزيفة، انتحلت شخصية الرئيس الأميركي، جو بايدن
قرار أميركي بحظر المكالمات الآلية الاحتيالية المزيفة بالذكاء الاصطناعي
أصدرت لجنة الاتصالات الفيدرالية الأميركية، الخميس، قرارا يحظر "فوريا" المكالمات الآلية الاحتيالية التي تتضمن أصواتا أصواتا مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي، واتخذت إجراءات صارمة ضد ما يسمى بتكنولوجيا "التزييف العميق" التي يقول الخبراء إنها قد تقوّض أمن الانتخابات أو تزيد من عمليات الاحتيال.

وقالت رئيسة لجنة الاتصالات الفيدرالية، جيسيكا روزنورسيل، في بيان: "تستخدم الجهات السيئة الأصوات التي يولدها الذكاء الاصطناعي في مكالمات آلية غير مرغوب فيها لابتزاز أفراد الأسرة الضعفاء، وتقليد المشاهير، وتضليل الناخبين"، مضيفة "نحن ننبه المحتالين الذين يقفون وراء هذه المكالمات الآلية". 
 
ومع تزايد قدرات أدوات التوليد الآخذة بالتطور، ما عادت عمليات التزييف والاحتيال تقتصر على جانب أو تنحصر بحدود أو نطاق، وإنما باتت تطال كافة جوانب الحياة الرقمية والتعاملات عبرها.

فعلى سبيل المثال، يمكن لأي شخص اليوم عبر "الويب المظلم" أن يحصل على هوية مزيفة صادرة عن أي دولة في العالم، تحاكي تلك الحقيقية، مقابل دولارات قليلة، بحسب ما يؤكد زغبي، ويتم استخدامها على نطاق واسع في عمليات التوثيق والتحقق التي تجري عبر الإنترنت باستخدام صور الهويات وجوازات السفر.

وعليه يمكن اليوم لأي جهة أن تخلق حسابات وهمية على مواقع التواصل الاجتماعي بصور أشخاص غير موجودين فعلياً مولدة بتقنيات الذكاء الاصطناعي، مرفقة بهويات تعريف خاصة بهم، وتحويلهم إلى أشخاص موجودين وموثقين، وفقاً لزغبي، الذي يلفت إلى توفر مواقع تقدم هذه الخدمة، من خلال تقديم وجوه بملامح غير موجودة في الحقيقة لاستخدامها.

وبدوره، يشير أبي نجم إلى أن هذه الهويات والأوراق الثبوتية المزورة بحرفية عالية وبأدق التفاصيل عبر تقنيات الذكاء الاصطناعي، "تستخدم على نطاق واسع على مواقع ومنصات تداول العملات الرقمية، حيث يطلب من المستخدمين صور عن جوازات سفرهم ليتعرفوا إليهم".

ويعود ذلك لكون العملات الرقمية المشفرة تستخدم في عمليات الابتزاز والاحتيال، وبالتالي "لتجنب إبراز هويات حقيقية (بطاقات شخصية أو جوازات سفر) يلجؤون إلى مواقع تصدر هذا النوع من الهويات، مقابل 15 دولاراً، ويرسلونها إلى منصات التداول التي لا تملك الداتا (البيانات) الموجودة في المطارات للتأكد من صحة الجوازات والأوراق الثبوتية فيتم استغلال هذه الثغرة"، وفق أبي نجم.

وكذلك، لفت الخبير في الأمن السيبراني إلى أساليب احتيال جديدة باستخدام تقنيات التزييف العميق، تقوم على تزييف إعلانات لمشاهير وشخصيات معروفة، مثل مارك زوكربرغ أو إيلون ماسك، وهم يروجون لتطبيق أو منتج معين عبر الحديث عنه والادعاء أنهم يستخدمونه أو ينصحون به، من أجل كسب ثقة الناس والاحتيال عليهم.  

كذلك أشار أبي نجم إلى ظاهرة ما يسمى "AI إنفلونسرز"، وهم عبارة عن حسابات لأشخاص غير موجودين في الحقيقة صورهم وشخصيتهم بالكامل مولدة عبر الذكاء الاصطناعي، يؤدون دور المؤثرين، ويقومون بأعمال تسويق وعرض أزياء ومنتجات وخدمات وما إلى ذلك، ولديهم متابعين بمئات الآلاف وعملاء يعملون معهم، وأشخاص يحاولون التحدث إليهم أو التقرب منهم، في حين أنهم غير موجودين في الحقيقة.

التزييف العميق الآني.. أمر واقع

وما عاد التزييف يقتصر فقط على المحتوى المنتج مسبقاً، إذ باتت تقنيات الذكاء الاصطناعي تتيح التزييف المباشر أو الآني، الذي يتم في الوقت الحقيقي، حيث يمكن تزييف اتصالات صوتية أو فيديو في لحظة إجراء المكالمة، مما يفرض مزيداً من التحديات والتهديدات، ويزيد من فرص استفادة المجرمين والمحتالين.

وبينما كانت هذه التقنية أقرب إلى قصص أفلام الخيال العلمي، فإن إمكانية تنفيذها تقنيا اليوم أصبحت أمرا واقعاً، بحسب ما يؤكد الخبراء.
 
ولفت زغبي إلى أن التزييف العميق الآني لا يزال صعب التنفيذ، لكنه أكد أنه أصبح قابلاً تقنيا للتحقيق،" فيحتاج إلى تقنيات متقدمة ومكلفة وجهد كبير لاستنساخ الصوت والصورة وملاءمتها مع الحركات خلال إجراء الاتصال أو البث، ولكن تقنياً الأمر مقدور عليه".

وفي مثال على ذلك، يستشهد أبي نجم ببرامج وتطبيقات "الفلتر" للصور والفيديوهات، مؤكداً أنها نوع من أنواع التزييف الآني للوجوه وأشكالها، لافتاً إلى أن إصدار شركة آبل من النظارات الذكية تحمل دليلاً أيضاً على القدرة التقنية على التزييف العميق الآني، حيث تتيح تلك النظارات تبديل صورة وجه الشخص الذي تتحدث إليه على أرض الواقع في اللحظة نفسها.

وفي هذا السياق، قالت وكالة بلومبيرغ إنه "يكاد يكون يقيناً أن عملية الاحتيال التي وقعت في هونغ كونغ، استخدمت التزييف العميق الآني، مما يعني أن المدير المزيف كان يماشي حركات المحتال في إنصاته وحديثه وإيماءاته خلال الاجتماع".

وفي هذا الصدد، قال أستاذ علم الجريمة في جامعة ولاية جورجيا، ديفيد مايمون، إن المحتالين عبر الإنترنت "يستخدمون التزييف العميق الآني في مكالمات الفيديو منذ العام الماضي على الأقل، في عمليات احتيال أصغر، ومنها الخداع العاطفي". 

عجز عن المواجهة 

وأمام التطور التقني الذي يقدمه الذكاء الاصطناعي لعمليات التزييف، لا يبدو أن الأدوات المتاحة حالياً وفي المدى المنظور قادرة على كشف ذلك التزييف أو المحتوى المولد بالذكاء الاصطناعي بصورة حاسمة، وفقاً للخبراء.

ويجزم الزغبي بعدم وجود قدرة تقنية على كشف التزييف المولد بالذكاء الاصطناعي، إذ لا يزال من الصعب مكافحة هذه الأدوات أو كشفها، "خاصة أن هذه التقنيات في طور التقدم والتحسن يوماً بعد يوم، مما يجعل كشفها أصعب، وبالتالي ما من حل تقني متاح حالياً للاستخدامات السلبية لهذه الأدوات".

وتابع: "فيسبوك حاولت قبل عام تقريباً إجراء منافسة من أجل تدريب الذكاء الاصطناعي لكشف التزييف المولد عبر الذكاء الاصطناعي، لكنهم لم يصلوا إلى نتيجة بفعالية عالية، وبالتالي لا يزال الاعتماد الأكبر على التدقيق البشري الأكثر جدوى في رصد التزييف العميق والهفوات التي قد تظهر فيه".

ويتأسف الخبير بالذكاء الاصطناعي لكون "أغلب الجمهور غير مدرب أو قادر أو مستعد لتدقيق كل ما يتلقاه في العالم الرقمي من معلومات ومحتوى، وثمة فئات لا تعلم بأمر التزييف وتقنياته من أصلها.. وسيتابع هؤلاء حياتهم دون التوقف عند صحة ما يتلقونه، وهنا ستكمن المشكلة".

وبدوره، أكد أبي نجم أن الناس لن تكون قادرة على تمييز ما ينتج عبر الذكاء الاصطناعي وما هو حقيقي في العالم الرقمي، مضيفاً "اليوم وصلنا إلى مرحلة نحتاج فيها إلى روبوتات الذكاء الاصطناعي لكشف إنتاجات الذكاء الاصطناعي".

وتابع: "كل ذلك ولم نصل بعد إلى مرحلة الكوانتوم كومبيوتر، الأسرع بملايين المرات عما لدينا اليوم، حينها سيكون الذكاء الاصطناعي مرعب، وسيكون من الاستحالة التمييز بين الحقيقة والتزييف، وهنا التأثير الكارثي".

 أما عن سبل المواجهة المتاحة، فهي ببساطة غير موجودة، بحسب ما يؤكد أبي نجم، مضيفاً أن اتجاه الجرائم الإلكترونية على مدى أكثر من 30 عاماً من عمر الإنترنت "كان تصاعدياً واستمر دون تراجع حتى اليوم، بالرغم من محاولات أطراف عدة لوضع تنظيمات وتشريعات وقوانين تضبط تلك الجرائم "دون جدوى، فليس للجرائم الإلكترونية حدود جغرافية معينة لضبطها".

وتابع: "فلنتفرض أن الاتحاد الأوروبي أتم تشريعاته المرتبطة بضبط استخدام الذكاء الاصطناعي، ماذا عن باقي الدول؟ ماذا عن الصين مثلاً أو كوريا الشمالية؟ كيف سينجح فرض تلك القوانين عليهم أو التحكم بما ينتج هناك؟.. يمكن وضع القوانين لكن تطبيقها ليس بالسهولة نفسها".

ورأى زغبي أن الناس بحاجة لهذا النوع من التشريعات لكي يتم ضبط استخدامات هذه الأدوات المتاحة اليوم أمام الجميع، من قبل جهات موثوقة لدى الناس.

في المقابل، اعتبر أبي نجم أن سرعة التشريع "لا تناسب السرعة التي تتطور بها تلك التقنيات، فما يتم تشريعه اليوم، يختلف واقعه غداً".

ويخلص الخبراء إلى أن السبيل الوحيد لمواجهة مخاطر وتأثيرات هذه التقنيات هو "الوعي التام، وعدم الثقة بكل ما يتلقونه من محتوى رقمي عبر الإنترنت"، داعين الناس إلى عدم تصديق كل ما لا يرونه مباشرة بالعين، وليس بالصوت والصورة أو عبر الإنترنت.

وأردف أبي نجم: "حتى بالجانب الشخصي، مثل اتصالات مع ارقام نعرفها أو فيديوهات أو مقاطع صوتية لأشخاص نعرفهم، ما عاد بالإمكان الثقة بكل ما هو رقمي".

واعتبر أنه أصبح مطلوباً اليوم من كل شخص أن يكون مدقق معلومات وحقائق، "وهذا يحتاج إلى تثقيف وتدريب".

نصائح عامة

وكانت وكالة "بلومبيرغ" قد نشرت في تقرير عدداً من النصائح التي من شأنها أن تساعد في كشف التزييف العميق الآني على وجه الخصوص، الذي قد يكون الأكثر استخداماً في عمليات الاحتيال في الفترة المقبلة، أبرزها: 

  • استخدام الإشارات البصرية للتحقق من هوية المتحدث، إذ أن التزييف العميق الآني لا يزال عاجزاً عن تمثيل حركات معقدة، لذا يمكن في حالة الشك الطلب من الطرف الآخر، خلال مكالمة الفيديو، أن يلتقط كتاباً على مقربة منه، أو أن يؤدي حركة ليست معتادة في هذه المكالمات.
  • مراقبة حركة الفم، حيث من الممكن أن يظهر عدم التناغم في تزامن حركة الشفاه مع الكلمات أو في تعبيرات الوجه الغريبة التي ليست ناجمةً عن خللٍ اعتيادي في الاتصال.
  •  استخدام مصادقة متعددة المصادر، خاصة في الاجتماعات ذات الطبيعة الحساسة، ولا بأس بالتأكد من هوية المحدث عبر محادثة جانبية عبر البريد الإلكتروني أو الرسائل النصية أو تطبيق مصادقة بغرض التثبت من هوية المشاركين.
  • استخدام قنوات آمنة أخرى لتأكيد القرارات وتبادل المعلومات الحساسة، مثل تطبيقات الرسائل المشفرة.
  • التحديث الدائم للبرامج والتطبيقات، لاسيما تلك الخاصة بمكالمات الفيديو لضمان توفر أحدث الخصائص الأمنية المدرجة للكشف عن التزييف العميق.
  •  تجنب منصات مكالمات الفيديو غير المعروفة، حيث يفضل اختيار منصات معروفة تتمتع بإجراءات أمنية قوية نسبياً، خصوصاً في الاجتماعات التي تتسم بالحساسية.
  •  الانتباه للتصرفات والأنشطة المثيرة للريبة، مثل الانتباه إلى الطلبات العاجلة لتحويل الأموال، والاجتماعات التي تُعقد فجأة وتشمل قرارات مهمة، وتغير نبرة شخص ما أو لغته أو أسلوبه في الكلام.
  • كما يستخدم المحتالون عادةً أساليب ضغط، لذا يجب الحذر أيضاً من أي محاولة لتسريع التوصل إلى قرار.

وجوه وقضايا

الجانب المظلم من حقيقة الذكاء الاصطناعي

الحرة / خاص - واشنطن
21 مارس 2025

لتقنيات الذكاء الاصطناعي أثر إيجابي على كثير من مجالات حياتنا اليومية، لكن ما قد يخفى عن كثيرين هو تأثيراتها الضارة على الحياة بشكل عام: الحياة على هذا الكوكب.

استهلاك شركة مايكروسوفت من الكهرباء في عام 2023، على سبيل المثال، تجاوز 24 تيراواط، أي أكثر من استهلاك بلد مثل الأردن، أو حتى السعودية.

ويزيد الاستخدام المفرط للطاقة غير النظيفة لإنتاج الكهرباء من تداعيات الانبعاثات الضارة على البيئة. 

إلى جانب الكهرباء، يستخدم قطاع تكنولوجيا الذكاء الاصطناعي كميات هائلة من المياه لتبريد الأجهزة المعالجة للخوارزميات المعقدة.

الجبهة الأمامية

مراكز البيانات هي الجبهة الأمامية في الصراع نحو تصدر مجال الذكاء الاصطناعي.

هذه المراكز ليست حديثة العهد، فقد أُسس أول مركز معني بالبيانات في جامعة بنسلفانيا الأميركية عام 1945 لدعم ما عُرف حينها كأول كمبيوتر رقمي متعدد الأغراض، "ENIAC" اختصارا.  

هذه المراكز هي العمود الفقري للحوسبة الحديثة المعنية بتخزين كميات ضخمة من البيانات ومعالجتها.

تلك البيانات تكفل استمرار تشغيل كافة المواقع العاملة عبر شبكة الإنترنت، ما يسهل عمل الهواتف الذكية وأجهزة الحاسوب.

لكن ظهور الذكاء الاصطناعي، التوليدي منه تحديدا، مثل خدمات "تشات جي.بي.تي" و"جيميناي" مثلا، غيّر "دراماتيكيا" في عمل مراكز البيانات، وفقا لمقال نشره معهد ماساتشوستس للتقنية "أم آي تي". 

واليوم، تتكون تلك المراكز من بنايات صناعية كبيرة، في داخلها مجموعة من الأجهزة الإلكترونية الضخمة.

داخل تلك البنايات هناك أجهزة تخزين البيانات الرقمية وخوادم الاتصالات والحوسبة السحابية، التي تمكن من تخزين ومعالجة البيانات.

بين عامي 2022 و 2023 ارتفعت متطلبات مراكز البيانات من الطاقة، في أميركا الشمالية، من 2,688 ميغاواط إلى 5,341 ميغاواط، وفق تقديرات علماء.

جزء من هذا الارتفاع مرتبط بالاحتياجات التي فرضها الذكاء الاصطناعي التوليدي، وفق "أم آي تي".

عالميا، بلغ استهلاك مراكز البيانات من الطاقة، في عام 2022، 460 تيراواط.

وتحتل مراكز البيانات المرتبة 11 بين الأكثر استهلاكا للكهرباء سنويا حول العالم، وهي مرتبة وسط بين فرنسا (463 تيراواط) والسعودية (371 تيراواط)، وفقا منظمة التعاون الاقتصادي والتنمية.

وبحلول 2026، تشير "أم آي تي"، إلى أن استهلاك مراكز البيانات للكهرباء قد يصل إلى 1,050 تيراواط، ما قد يرفعها إلى المرتبة الخامسة، بين اليابان وروسيا.

الذكاء الاصطناعي التوليدي وحده ليس العامل الوحيد، يوضح المعهد التقني، لكنه "دافع أساسي" باتجاه زيادة الطلب على الطاقة والمياه. 

تستخدم تلك المراكز كميات ضخمة من الطاقة الكهربائية، وتكون لديها مصادر طاقة بديلة عند انقطاع التزويد أو في حالات الطوارئ، ما يمكّنها من الاستمرار في العمل.

لكن توفير الطاقة الكافية لتشغيل تلك المراكز أصبح تحديا في ظل ارتفاع الطلب العالمي على الطاقة.

الرئيس الأميركي، دونالد ترامب، قدّم خطة لتطوير الطاقة النووية في الولايات المتحدة تحظى بدعم لافت من جمهوريين وديمقراطيين على حد السواء، وقد تشكل الحل الأكثر رفقا بالبيئة.

البروفسور آناند راو من جامعة كارنيغي ميلون أوضح لموقع "الحرة" أنه بالإضافة إلى الاستخدام المكثف للطاقة الكهربائية، ظهرت معضلة جديدة أمام تلك المراكز.

الأجهزة الإلكترونية الضخمة التي تستهلك كميات كبيرة من الطاقة ترتفع حرارتها إلى درجات عالية جدا، ما يؤثر على قدرتها، وقد يؤدي حتى إلى تلفها.

قد يبدو ذلك غريبا لأول وهلة، ولكن على عكس حاسوبك الصغير الذي يستعمل مروحة أو اثنتين لتبريد رقاقاته الإلكترونية، تستخدم أجهزة مراكز البيانات الماء للتبريد.

تدخل آلاف الغالونات من الماء إلى مبادل حراري يشغل شبكة ضخمة ومتشعبة من الأنابيب والمبردات تمتد إلى كافة الأجهزة الكهربائية والإلكترونية، دون أن يلامس الماء، طبعا، أيا من الدارات الكهربائية.

ومثلما هو الحال بالنسبة للكهرباء، يضع استهلاك تلك الكميات الكبيرة من الماء ضغطا كبيرا على الموارد المحلية للمنطقة حيث تكون مركز البيانات.

بات من الواضح أن استدامة عمل تلك المراكز أصبحت مرتبطة بتأمين موارد كبيرة من الكهرباء والماء.

لكنّ هناك حلولا أخرى، بحسب البروفيسور راو، مثل استخدام النيتروجين للتبريد عوضا عن الماء.

رغم أن النيتروجين متوفر بكميات كبيرة، إذ يمثل نحو 78 في المئة من الهواء في الغلاف الجوي للأرض، فإن استخدامه للتبريد مكلف كثيرا، ما يجعل الماء خيارا اقتصاديا أفضل.

حلول مبتكرة تعيقها "الهلوسة"

عوضا عن بذل جهد كبير في محاولة تبريد الأجهزة الإلكترونية، لماذا لا يتم استخدام أجهزة تطلق حرارة أقل، ما يعني بالضرورة أنها تستهلك كمية أقل من الطاقة؟

قد يخيل إليك أن هذه فكرة مثالية بعيدة عن الواقع، ولكن، مرة أخرى، يتحول الخيال إلى حقيقة.

تجري منذ مدة أبحاث تهدف لتطوير ما اصطلح على تسميته بحواسيب الكوانتوم التي تُعرف أيضاً باسم الحواسيب الكمومية.

اعتماد هذا النوع من الحواسيب على "فيزياء الكم" جعلها قادرة على القيام بعدد ضخم من الحسابات في وقت قصير ما جعلها تستخدم كمية طاقة أقل.

البيانات المعروفة بالإنكليزية بكلمة "بايت" وتعتمد نظام الرياضيات الثنائي المكون من رقمين هما 0 و1، وهو النظام المستخدم في الحواسيب.

لكن حواسيب الكم تعتمد على "الكيوبتات"، التي بإمكانها أن أن تكون في حالتي 0 و1 في نفس الوقت، وهو ما يعرف باسم التراكب الكمومي.

مكنت تلك الخاصية الفريدة هذه الحواسيب من إظهار قدرة كبيرة على فك المعادلات المعقدة وتقديم أجوبة متطورة على أسئلة مركبة، عبر معالجة العديد من المعادلات والمسائل في نفس الوقت.

وبالطبع، استخدمت حواسيب الكم في تطوير النماذج اللغوية للذكاء الاصطناعي، لكن الأجوبة التي قدمتها كانت "غير مستقرة".

وتعبير "غير مستقرة" يعبر عنها أحياناً بـ "الهلوسة"، حسب ما أوضح لموقع "الحرة"، كل من سام رزنيك، الباحث في معهد الأمن والتكنولوجيا الناشئة في جامعة جورج تاون الأميركية، والبروفيسور راو.

هذه "الهلوسة" البرمجية تتمثل في تقديم نموذج الذكاء الاصطناعي إجابات خاطئة وغير منطقية أو مخالفة للواقع أو عبثية لا معنى لها.

مجتمع الباحثين في مجال الذكاء الاصطناعي يسعى لتحسين قدرات حواسيب الكم، للاستفادة من قدراتها الفريدة خصوصا من ناحية الوصول إلى نفس النتائج لكن بجهد أقل ووقت أقصر.

سباق العمالقة

ويتوالى سباق السيطرة على هذه التكنولوجيا التي فتحت أبواب الأرباح المالية الضخمة والسيطرة السياسية وحتى العسكرية، وسط مخاوف من تهديدها حرية التفكير والتعبير.

خلال الأسابيع القليلة الماضية شهدت تطبيقات الذكاء الاصطناعي نموا صاروخيا وحققت أرقاما فلكية.

ارتفع عدد مستخدمي "تشات جي.بي.تي" نهاية فبراير بنسبة 33 في المئة مقارنة بنفس العدد في ديسمبر الماضي ليصل إلى 400 مليون مستخدم أسبوعيا.

ومن أهم مستخدمي "تشات جي.بي.تي" نجد بنك "مورغان ستانلي" الاستثماري وشركات كبرى مثل "تي موبايل" و"مودرنا" و"أوبر".

أما نموذج "ديب سيك" الصيني، فارتفع عدد مستخدميه 12 مرة خلال شهر يناير الماضي، ليصل الآن إلى معدل 700 ألف مستخدم أسبوعيا.

والتحقت شركة "أكس.أيه.آي" بالركب، ومنذ طرحها نموذج "غروك 3" ارتفع عدد مستخدميه من 4.3 مليون إلى 31.5 مليون مستخدم يوميا، وذلك خلال 3 أسابيع فقط.

وزعمت الشركة المنتجة لنموذج "ديب سيك" الصيني أنه يقدم خدمة أقل كلفة ومماثلة لنظيره الأميركي "تشات جي.بي.تي" من شركة "أوبن أيه آي".

سرعان ما خرج نموذج أميركي آخر بعد أقل من شهر، يسمى "غروك 3"، ليقدم قدرات أكبر.

شركة "أكس أيه آي"، التي أسسها إيلون ماسك عام 2023، تقول إن نموذج "غروك 3" هو الأفضل حتى الآن.

ظهور "ديب سيك" شكل صدمة ليس للباحثين المختصين بل للأسواق العالمية وحتى السياسة الدولية.

"ديب سيك" اعتمد تقنية تسمى استخلاص النماذج، يقول رزنيك في حديثه لموقع "الحرة".

تعتمد هذه التقنية على طرح آلاف من الأسئلة على نموذج "تشات جي.بي.تي"، لفهم طريقة تحليله للمعلومات.

أي لفهم طريقة تفكيره، والتعلم منها عبر التدرب على ذلك النموذج.

وبناء على ذلك قام الباحثون الصينيون ببناء نموذج "ديب سيك"، باستخدام الأجوبة المقدمة من "تشات جي.بي.تي".

ومع ارتفاع عدد مستخدمي الذكاء الاصطناعي تتزايد الحاجة إلى مزيد من مراكز البيانات، ما يعني، في المحصلة، استهلاكا أكبر للكهرباء والمياه، وما يصحب ذلك من تآكل لإمكانيات استمرار الحياة على كوكب الأرض.

مفاجآت بالجملة

الباحثان اللذان تحدثنا إليهما يخالفان الاعتقاد السائد بأن الصينيين لا يملكون  قدرات حاسوبية كبيرة نظرا لتأخرهم في مجال الرقائق الإلكترونية.

فمنظومة "ديب سيك" أصبحت تستخدم عددا كبيرا من الرقائق المصنعة من طرف شركة هواوي الصينية.

يكشف رزنيك لنا سرا آخر من خبايا الصراع الخفي للسيطرة على شعلة القيادة في مجال الذكاء الاصطناعي.

نموذج "ديب سيك" يعتمد على قدرات حاسوبية كبيرة، لكن السر يكمن في طبيعة الرقاقات الإلكترونية.

هناك نوعان رئيسيان من الرقاقات الإلكترونية المعتمدة في نماذج الذكاء الاصطناعي.

الرقائق المتقدمة مثل تلك المنتجة من شركة "إنفيديا"، ومقرها ولاية كاليفورنيا الأميركية، تعرف باسم رقائق "جي.بي.يو"، وتستخدم للعمليات المعقدة مثل تدريب نماذج الذكاء الاصطناعي.

كلمة "جي.بي.يو" هي الاختصار الإنكليزي لمصطلح "graphic processing unit" أو (GPU) اختصارا، وتعني "وحدات معالجة الصور".

مكنت قدرات تلك الرقائق شركة "إنفيديا" من الوصول إلى قيمة سوقية تعادل نحو 3 ترليون دولار.

رقائق "جي.بي.يو" لم تكن في الأصل معدة للاستخدام في مجال الذكاء الاصطناعي.

"إنفيديا" عملت منذ تأسيسها عام 1993، في مجال الألعاب الإلكترونية أو ألعاب الفيديو، وأرادت الحصول على صور ذات نوعية جيدة، تضفي طابعا أكثر واقعية على ألعاب الفيديو.

في ذلك الوقت كانت شركات التكنولوجيا مثل "إنتل" الأميركية تعمل على إنتاج رقائق حواسيب تعرف باسم "سي بي يو"، وهو الاختصار الإنكليزي لكلمة "سنترال بروسيسنغ يونت"، أو "وحدات المعالجة المركزية".

الرقائق الإلكترونية لوحدات المعالجة المركزية هي الأساس للحواسيب لذلك فهي أكثر انتشارا، لكن طريقة عملها تجعلها أقل تقدما في مجال الحسابات المعقدة.

من خلال التجارب الأولى للنماذج الحديثة للذكاء الاصطناعي، تبين أن وحدات معالجة الصور المنتجة من شركة "إنفيديا"، هي الأفضل بسبب قدرتها على إجراء العمليات الحسابية المعقدة، مع حجم معالجة أكبر.

تحولت "إنفيديا" من شركة تعمل في مجال ألعاب الفيديو إلى المزود الرئيسي للشركات التي تستخدم الذكاء الاصطناعي.

منذ أعوام تشهد الولايات المتحدة والصين نزاعا بشأن الرقاقات المستخدمة في الذكاء الاصطناعي

المفارقة أن التحول المفاجئ كان سبباً في قوة الصدمة الناجمة عن نجاح نموذج "ديب سيك".

القدرة على تقديم نموذج يستخدم قدرات حاسوبية أقل تقدماً وضع مستقبل شركة "إنفيديا" في مرمى الشك وأثر على التداولات في الأسواق.

وأصبحت رقاقات "إنفيديا" طلبا أساسيا لدى كبرى شركات التقنية مثل "أمازون" و"غوغل" و"ميتا" و"مايكروسوفت" وغيرها.

لكن الاهتمام بذلك الحدث تجاوز عالم المال والأعمال.

الحرة / خاص - واشنطن