خبراء يحذرون من استغلال التطور التقني للذكاء الاصطناعي في خدمة الجريمة
خبراء يحذرون من استغلال التطور التقني للذكاء الاصطناعي في خدمة الجريمة | Source: Pexels

كشفت شركة "مايكروسوفت" مطلع فبراير، عن تفاصيل عملية قرصنة لبث تلفزيوني في دولة الإمارات، استخدم القراصنة فيها تقنيات التزييف العميق بواسطة الذكاء الاصطناعي لإظهار مذيع مفترض يقرأ تقريرا إخباريا مزيفاً يتناول الحرب بين إسرائيل وحماس في غزة، ويحاول التلاعب بمشاعر الرأي العام بالدولة الخليجية.

وفي الوقت ذاته، كانت ولاية نيوهامشير الأميركية شاهدة على عملية تزييف مشابهة باستخدام تقنيات الذكاء الاصطناعي لمخادعة، عبر استنساخ صوت الرئيس الأميركي، جو بايدن، في اتصالات هاتفية مزيفة دعت الناخبين إلى عدم المشاركة في الانتخابات الرئاسية التمهيدية.

وبين الواقعتين وقبلهما، شهد العالم عشرات الأحداث المشابهة التي تخللتها عمليات احتيال ومخادعة للجمهور بشكل عام أو للأفراد بصورة شخصية، كان المشترك الوحيد بينها، اعتمادها على الأدوات والإمكانات التي بات يتيحها الذكاء الاصطناعي لاسيما التوليدي منه، في عملية تزييف الحقائق والصور والأصوات، مما يضع العالم وجها لوجه أمام سيناريوهات مخيفة.

مقدم أخبار بتقنية الذكاء الاصطناعي ظهر وهو يقرأ تقريرا إخباريا مزيفا عن غزة
الغارديان: قراصنة مدعومون من إيران يخترقون خدمات بث تلفزيوني في الإمارات
ذكرت شركة "مايكروسوفت" أن مجموعة قرصنة مدعومة من قبل الحرس الثوري الإيراني تمكنت من اختراق منصات بث تلفزيوني في الإمارات باستخدام بث إخباري مُزيف عن حرب غزة أنشئ بواسطة الذكاء الاصطناعي، وفاق لصحيفة "الغارديان".

ولطالما حذر الخبراء من الدور الذي يمكن أن يلعبه التطور التقني للذكاء الاصطناعي في خدمة الجريمة والاحتيال الإلكتروني، وفي حماية العصابات والقراصنة من الكشف والملاحقة.

وبينما كانت المخاوف تتركز على دور الذكاء الاصطناعي في تطوير حملات التضليل ودعم الأخبار الزائفة للتلاعب بالجمهور والتأثير على الرأي العام وتزييف الحقائق بصورة شاملة، باتت المخاوف اليوم تتركز على ما يمكن أن يستهدف الأفراد والعائلات والشركات والكيانات بصورة خاصة وفردية وممنهجة، من قبل المحتالين والمبتزين باستخدام هذه التقنيات.

"من سيئ إلى أسوأ"

وبالنظر إلى الإمكانيات التي بات يوفرها الذكاء الاصطناعي تبدو المخاوف السابقة واقعية ومنطقية، بل وفي بعض الأحيان دون مستوى توقعات الخبراء في هذا المجال، الذين يرون أن ما يجري حالياً "ليس سوى البداية".

وبحسب الخبير في التحوّل الرقمي وأمن المعلومات، رولان أبي نجم، فإن الذكاء الاصطناعي مع كل ما ينتج عنه حالياً "لا يزال في مرحلة البدايات، والتطور المقبل سيجعل كشفه أصعب بكثير، وتأثيره أكبر أيضاً".

وأوضح: "سيصبح من المستحيل التمييز بين الحقيقة والتزييف"، وهو ما سينطبق على كل ما هو موجود على الإنترنت من فيديوهات، وصور، ونصوص، ومعلومات.

وأضاف في حديثه لموقع "الحرة"، أن الأمور تتجه "من سيئ إلى أسوأ"، في ظل التنامي والتطور اليومي لقدرات الذكاء الاصطناعي، مقابل التأخر العام عن المواكبة السريعة في تقنيات الكشف، وآليات المكافحة، وتشريعات التنظيم والمحاسبة.

وحذر أبي نجم من أن الذكاء الاصطناعي التوليدي لديه قدرة عالية على التزوير وعلى خداع الرأي العام وتسهيل عمليات احتيال كبيرة جداً.

من جانبه، يؤكد الخبير بالذكاء الاصطناعي والرئيس التنفيذي لشركة "Zaka" التكنولوجية، كريستوفر زغبي، أن أدوات الذكاء الاصطناعي أصبحت تمكن عصابات الاحتيال أكثر من القيام بعملياتهم، وتسهل الجرائم الإلكترونية وترفع وتيرتها.

وأضاف في حديث لموقع "الحرة"، أن "استخدام التكنولوجيا في عمليات الاحتيال والجرائم أمر سابق لظهور الذكاء الاصطناعي وأدواته التوليدية، وهو الحال مع كل تقنية جديدة يجري استخدامها".

واستدرك: "إلا أن الذكاء الاصطناعي بات أداة أسرع وأقوى بكثير، وبالتالي هي تقدم أساليب أكثر إقناعاً وإتقاناً".

وفي حين كان التزييف يصل إلى حد استنساخ الشكل وبعض الحركات أو إنتاج صور مزيفة، فإن الذكاء الاصطناعي، بحسب زغبي، جعل بالإمكان "استنساخ أسلوب الشخص في التحدث أو الكتابة، وتقليد سلوكه والتنبؤ بالأطباع والتصرفات بالإضافة إلى تزييف الصوت والصورة"، وهو ما بات يمكّن عصابات الاحتيال من أن يتحدثوا إلى معارف الشخص، أو زملاء العمل، أو أصدقائه، أو عائلته بأسلوبه والكلمات التي يستخدمها عادة.

احتيال بلا حدود

وكان العالم قد ضج بعملية احتيال أدت إلى خسارة شركة متعددة الجنسيات في هونغ كونغ نحو 26 مليون دولار أميركي بعد أن تعرض موظفوها لخداع من عصابة محتالين عبر مكالمة فيديو جماعية مزيفة عبر تقنية التزييف العميق، حيث انتحلوا شخصية المدير المالي للشركة وأشخاصاً آخرين في المكالمة، وأقنعوا الضحية بإجراء ما مجموعه 15 تحويلاً إلى 5 حسابات مصرفية، بحسب ما نقلت وكالة "بلومبيرغ".

الذكاء الاصطناعي بات يشكل الكثير من التحديات لمكافحي عمليات الاحتيال عبر الإنترنت (صورة تعبيرية)
"مكالمات من مديرك".. أحدث موجة من عمليات "نصب الذكاء الاصطناعي"
يبحث اللصوص والمحتالون عبر الإنترنت باستمرار عن طرق جديدة لخداع الأشخاص، ومن أحدث تلك الخدع انتحال شخصيات آخرين عن طريق محاكاة أصواتهم بواسطة تقنيات الذكاء الاصطناعي، ومن ثم النصب على الضحايا من خلال إيهامهم أن المتحدث هو قريبهم أو مديرهم أو أحد معارفهم، وفقا لما ذكرت وكالة "بلومبيرغ".

وبحسب "بلومبيرغ"، فإن أدوات تعديل الفيديوهات المدفوعة بالذكاء الاصطناعي فتحت مجالات أمام المحتالين كانت تعتبر آمنة في الماضي، مما يبرز سرعة تطور تقنية التزييف العميق خلال العام الماضي وحده، حيث أصبح الإعداد لعمليات الاحتيال المعقدة أسهل نسبياً، مما يدفع نحو عصر جديد من التشكيك.

ووفقاً لتقرير سابق نشره موقع "تالوس" بشأن كيفية استفادة المجرمين من التقدم الكبير لتقنيات الذكاء الاصطناعي، فإن تلك البرامج تساعد المستخدمين على إنشاء نصوص برمجية وتعديل الصور، وتبسيط عمليات المجرمين، وجعلها أكثر كفاءة وتطورا وقابلية للتوسع مع السماح لهم بالتهرب من الاكتشاف.

وتشمل الأعمال الخبيثة للمجرمين نشر المعلومات المضللة، وتعديل الصور بهدف الابتزاز الجنسي، وإنشاء برامج ضارة وخبيثة، وفقا لمتخصصين بقطاع التكنولوجيا والأمن السيبراني.

ويتطرق كل من أبي نجم والزغبي في حديثهما، للعديد من الأمثلة على ما يجري من جرائم تعتمد التزييف العميق باستخدام الذكاء الاصطناعي، من بينها عمليات تزييف الخطف، وذلك من خلال اتصالات مزيفة تتضمن مقاطع صوتية مستنسخة للضحايا المفترضين، بغية ابتزاز عائلاتهم والحصول على فدية مالية.

وكذلك بالنسبة إلى عمليات الاحتيال التي تقوم على تزييف طلب صديق أو قريب أو فرد من العائلة، للأموال بصورة عاجلة من خلال اتصالات وهمية أو فيديوهات أو مقاطع صوتية مفبركة بالتزييف العميق لخداع الضحايا.

وأصدرت لجنة الاتصالات الفيدرالية الأميركية في الثامن من فبراير الجاري، قرارا يحظر "فوريا" المكالمات الآلية الاحتيالية التي تتضمن أصواتا مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي، واتخذت إجراءات صارمة بشأن ذلك. 

وتمنح هذه الخطوة المدعين العامين المزيد من الأدوات القانونية، لملاحقة المتصلين الآليين غير القانونيين الذين يستخدمون الأصوات الناتجة عن الذكاء الاصطناعي لخداع الأميركيين.

القرار جاء بعد أسابيع من مكالمة آلية مزيفة، انتحلت شخصية الرئيس الأميركي، جو بايدن
قرار أميركي بحظر المكالمات الآلية الاحتيالية المزيفة بالذكاء الاصطناعي
أصدرت لجنة الاتصالات الفيدرالية الأميركية، الخميس، قرارا يحظر "فوريا" المكالمات الآلية الاحتيالية التي تتضمن أصواتا أصواتا مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي، واتخذت إجراءات صارمة ضد ما يسمى بتكنولوجيا "التزييف العميق" التي يقول الخبراء إنها قد تقوّض أمن الانتخابات أو تزيد من عمليات الاحتيال.

وقالت رئيسة لجنة الاتصالات الفيدرالية، جيسيكا روزنورسيل، في بيان: "تستخدم الجهات السيئة الأصوات التي يولدها الذكاء الاصطناعي في مكالمات آلية غير مرغوب فيها لابتزاز أفراد الأسرة الضعفاء، وتقليد المشاهير، وتضليل الناخبين"، مضيفة "نحن ننبه المحتالين الذين يقفون وراء هذه المكالمات الآلية". 
 
ومع تزايد قدرات أدوات التوليد الآخذة بالتطور، ما عادت عمليات التزييف والاحتيال تقتصر على جانب أو تنحصر بحدود أو نطاق، وإنما باتت تطال كافة جوانب الحياة الرقمية والتعاملات عبرها.

فعلى سبيل المثال، يمكن لأي شخص اليوم عبر "الويب المظلم" أن يحصل على هوية مزيفة صادرة عن أي دولة في العالم، تحاكي تلك الحقيقية، مقابل دولارات قليلة، بحسب ما يؤكد زغبي، ويتم استخدامها على نطاق واسع في عمليات التوثيق والتحقق التي تجري عبر الإنترنت باستخدام صور الهويات وجوازات السفر.

وعليه يمكن اليوم لأي جهة أن تخلق حسابات وهمية على مواقع التواصل الاجتماعي بصور أشخاص غير موجودين فعلياً مولدة بتقنيات الذكاء الاصطناعي، مرفقة بهويات تعريف خاصة بهم، وتحويلهم إلى أشخاص موجودين وموثقين، وفقاً لزغبي، الذي يلفت إلى توفر مواقع تقدم هذه الخدمة، من خلال تقديم وجوه بملامح غير موجودة في الحقيقة لاستخدامها.

وبدوره، يشير أبي نجم إلى أن هذه الهويات والأوراق الثبوتية المزورة بحرفية عالية وبأدق التفاصيل عبر تقنيات الذكاء الاصطناعي، "تستخدم على نطاق واسع على مواقع ومنصات تداول العملات الرقمية، حيث يطلب من المستخدمين صور عن جوازات سفرهم ليتعرفوا إليهم".

ويعود ذلك لكون العملات الرقمية المشفرة تستخدم في عمليات الابتزاز والاحتيال، وبالتالي "لتجنب إبراز هويات حقيقية (بطاقات شخصية أو جوازات سفر) يلجؤون إلى مواقع تصدر هذا النوع من الهويات، مقابل 15 دولاراً، ويرسلونها إلى منصات التداول التي لا تملك الداتا (البيانات) الموجودة في المطارات للتأكد من صحة الجوازات والأوراق الثبوتية فيتم استغلال هذه الثغرة"، وفق أبي نجم.

وكذلك، لفت الخبير في الأمن السيبراني إلى أساليب احتيال جديدة باستخدام تقنيات التزييف العميق، تقوم على تزييف إعلانات لمشاهير وشخصيات معروفة، مثل مارك زوكربرغ أو إيلون ماسك، وهم يروجون لتطبيق أو منتج معين عبر الحديث عنه والادعاء أنهم يستخدمونه أو ينصحون به، من أجل كسب ثقة الناس والاحتيال عليهم.  

كذلك أشار أبي نجم إلى ظاهرة ما يسمى "AI إنفلونسرز"، وهم عبارة عن حسابات لأشخاص غير موجودين في الحقيقة صورهم وشخصيتهم بالكامل مولدة عبر الذكاء الاصطناعي، يؤدون دور المؤثرين، ويقومون بأعمال تسويق وعرض أزياء ومنتجات وخدمات وما إلى ذلك، ولديهم متابعين بمئات الآلاف وعملاء يعملون معهم، وأشخاص يحاولون التحدث إليهم أو التقرب منهم، في حين أنهم غير موجودين في الحقيقة.

التزييف العميق الآني.. أمر واقع

وما عاد التزييف يقتصر فقط على المحتوى المنتج مسبقاً، إذ باتت تقنيات الذكاء الاصطناعي تتيح التزييف المباشر أو الآني، الذي يتم في الوقت الحقيقي، حيث يمكن تزييف اتصالات صوتية أو فيديو في لحظة إجراء المكالمة، مما يفرض مزيداً من التحديات والتهديدات، ويزيد من فرص استفادة المجرمين والمحتالين.

وبينما كانت هذه التقنية أقرب إلى قصص أفلام الخيال العلمي، فإن إمكانية تنفيذها تقنيا اليوم أصبحت أمرا واقعاً، بحسب ما يؤكد الخبراء.
 
ولفت زغبي إلى أن التزييف العميق الآني لا يزال صعب التنفيذ، لكنه أكد أنه أصبح قابلاً تقنيا للتحقيق،" فيحتاج إلى تقنيات متقدمة ومكلفة وجهد كبير لاستنساخ الصوت والصورة وملاءمتها مع الحركات خلال إجراء الاتصال أو البث، ولكن تقنياً الأمر مقدور عليه".

وفي مثال على ذلك، يستشهد أبي نجم ببرامج وتطبيقات "الفلتر" للصور والفيديوهات، مؤكداً أنها نوع من أنواع التزييف الآني للوجوه وأشكالها، لافتاً إلى أن إصدار شركة آبل من النظارات الذكية تحمل دليلاً أيضاً على القدرة التقنية على التزييف العميق الآني، حيث تتيح تلك النظارات تبديل صورة وجه الشخص الذي تتحدث إليه على أرض الواقع في اللحظة نفسها.

وفي هذا السياق، قالت وكالة بلومبيرغ إنه "يكاد يكون يقيناً أن عملية الاحتيال التي وقعت في هونغ كونغ، استخدمت التزييف العميق الآني، مما يعني أن المدير المزيف كان يماشي حركات المحتال في إنصاته وحديثه وإيماءاته خلال الاجتماع".

وفي هذا الصدد، قال أستاذ علم الجريمة في جامعة ولاية جورجيا، ديفيد مايمون، إن المحتالين عبر الإنترنت "يستخدمون التزييف العميق الآني في مكالمات الفيديو منذ العام الماضي على الأقل، في عمليات احتيال أصغر، ومنها الخداع العاطفي". 

عجز عن المواجهة 

وأمام التطور التقني الذي يقدمه الذكاء الاصطناعي لعمليات التزييف، لا يبدو أن الأدوات المتاحة حالياً وفي المدى المنظور قادرة على كشف ذلك التزييف أو المحتوى المولد بالذكاء الاصطناعي بصورة حاسمة، وفقاً للخبراء.

ويجزم الزغبي بعدم وجود قدرة تقنية على كشف التزييف المولد بالذكاء الاصطناعي، إذ لا يزال من الصعب مكافحة هذه الأدوات أو كشفها، "خاصة أن هذه التقنيات في طور التقدم والتحسن يوماً بعد يوم، مما يجعل كشفها أصعب، وبالتالي ما من حل تقني متاح حالياً للاستخدامات السلبية لهذه الأدوات".

وتابع: "فيسبوك حاولت قبل عام تقريباً إجراء منافسة من أجل تدريب الذكاء الاصطناعي لكشف التزييف المولد عبر الذكاء الاصطناعي، لكنهم لم يصلوا إلى نتيجة بفعالية عالية، وبالتالي لا يزال الاعتماد الأكبر على التدقيق البشري الأكثر جدوى في رصد التزييف العميق والهفوات التي قد تظهر فيه".

ويتأسف الخبير بالذكاء الاصطناعي لكون "أغلب الجمهور غير مدرب أو قادر أو مستعد لتدقيق كل ما يتلقاه في العالم الرقمي من معلومات ومحتوى، وثمة فئات لا تعلم بأمر التزييف وتقنياته من أصلها.. وسيتابع هؤلاء حياتهم دون التوقف عند صحة ما يتلقونه، وهنا ستكمن المشكلة".

وبدوره، أكد أبي نجم أن الناس لن تكون قادرة على تمييز ما ينتج عبر الذكاء الاصطناعي وما هو حقيقي في العالم الرقمي، مضيفاً "اليوم وصلنا إلى مرحلة نحتاج فيها إلى روبوتات الذكاء الاصطناعي لكشف إنتاجات الذكاء الاصطناعي".

وتابع: "كل ذلك ولم نصل بعد إلى مرحلة الكوانتوم كومبيوتر، الأسرع بملايين المرات عما لدينا اليوم، حينها سيكون الذكاء الاصطناعي مرعب، وسيكون من الاستحالة التمييز بين الحقيقة والتزييف، وهنا التأثير الكارثي".

 أما عن سبل المواجهة المتاحة، فهي ببساطة غير موجودة، بحسب ما يؤكد أبي نجم، مضيفاً أن اتجاه الجرائم الإلكترونية على مدى أكثر من 30 عاماً من عمر الإنترنت "كان تصاعدياً واستمر دون تراجع حتى اليوم، بالرغم من محاولات أطراف عدة لوضع تنظيمات وتشريعات وقوانين تضبط تلك الجرائم "دون جدوى، فليس للجرائم الإلكترونية حدود جغرافية معينة لضبطها".

وتابع: "فلنتفرض أن الاتحاد الأوروبي أتم تشريعاته المرتبطة بضبط استخدام الذكاء الاصطناعي، ماذا عن باقي الدول؟ ماذا عن الصين مثلاً أو كوريا الشمالية؟ كيف سينجح فرض تلك القوانين عليهم أو التحكم بما ينتج هناك؟.. يمكن وضع القوانين لكن تطبيقها ليس بالسهولة نفسها".

ورأى زغبي أن الناس بحاجة لهذا النوع من التشريعات لكي يتم ضبط استخدامات هذه الأدوات المتاحة اليوم أمام الجميع، من قبل جهات موثوقة لدى الناس.

في المقابل، اعتبر أبي نجم أن سرعة التشريع "لا تناسب السرعة التي تتطور بها تلك التقنيات، فما يتم تشريعه اليوم، يختلف واقعه غداً".

ويخلص الخبراء إلى أن السبيل الوحيد لمواجهة مخاطر وتأثيرات هذه التقنيات هو "الوعي التام، وعدم الثقة بكل ما يتلقونه من محتوى رقمي عبر الإنترنت"، داعين الناس إلى عدم تصديق كل ما لا يرونه مباشرة بالعين، وليس بالصوت والصورة أو عبر الإنترنت.

وأردف أبي نجم: "حتى بالجانب الشخصي، مثل اتصالات مع ارقام نعرفها أو فيديوهات أو مقاطع صوتية لأشخاص نعرفهم، ما عاد بالإمكان الثقة بكل ما هو رقمي".

واعتبر أنه أصبح مطلوباً اليوم من كل شخص أن يكون مدقق معلومات وحقائق، "وهذا يحتاج إلى تثقيف وتدريب".

نصائح عامة

وكانت وكالة "بلومبيرغ" قد نشرت في تقرير عدداً من النصائح التي من شأنها أن تساعد في كشف التزييف العميق الآني على وجه الخصوص، الذي قد يكون الأكثر استخداماً في عمليات الاحتيال في الفترة المقبلة، أبرزها: 

  • استخدام الإشارات البصرية للتحقق من هوية المتحدث، إذ أن التزييف العميق الآني لا يزال عاجزاً عن تمثيل حركات معقدة، لذا يمكن في حالة الشك الطلب من الطرف الآخر، خلال مكالمة الفيديو، أن يلتقط كتاباً على مقربة منه، أو أن يؤدي حركة ليست معتادة في هذه المكالمات.
  • مراقبة حركة الفم، حيث من الممكن أن يظهر عدم التناغم في تزامن حركة الشفاه مع الكلمات أو في تعبيرات الوجه الغريبة التي ليست ناجمةً عن خللٍ اعتيادي في الاتصال.
  •  استخدام مصادقة متعددة المصادر، خاصة في الاجتماعات ذات الطبيعة الحساسة، ولا بأس بالتأكد من هوية المحدث عبر محادثة جانبية عبر البريد الإلكتروني أو الرسائل النصية أو تطبيق مصادقة بغرض التثبت من هوية المشاركين.
  • استخدام قنوات آمنة أخرى لتأكيد القرارات وتبادل المعلومات الحساسة، مثل تطبيقات الرسائل المشفرة.
  • التحديث الدائم للبرامج والتطبيقات، لاسيما تلك الخاصة بمكالمات الفيديو لضمان توفر أحدث الخصائص الأمنية المدرجة للكشف عن التزييف العميق.
  •  تجنب منصات مكالمات الفيديو غير المعروفة، حيث يفضل اختيار منصات معروفة تتمتع بإجراءات أمنية قوية نسبياً، خصوصاً في الاجتماعات التي تتسم بالحساسية.
  •  الانتباه للتصرفات والأنشطة المثيرة للريبة، مثل الانتباه إلى الطلبات العاجلة لتحويل الأموال، والاجتماعات التي تُعقد فجأة وتشمل قرارات مهمة، وتغير نبرة شخص ما أو لغته أو أسلوبه في الكلام.
  • كما يستخدم المحتالون عادةً أساليب ضغط، لذا يجب الحذر أيضاً من أي محاولة لتسريع التوصل إلى قرار.

 مسبار "أثينا" اثناء هبوطه على سطح القمر
مسبار "أثينا" اثناء هبوطه على سطح القمر

هبط مسبار "أثينا" التابع لشركة Intuitive Machines على سطح القمر يوم الخميس، حاملاً مثقابًا وطائرة مسيرة ومعدات أخرى تابعة لوكالة ناسا، لكنه واجه مشاكل وسط توقعات أن يكون قد انقلب على الجانب.

وقالت الشركة إنه ليس من المؤكد ما إذا كان المسبار في وضع عمودي أو أنه مائل، وهرع المراقبون لإيقاف بعض معدات المسبار للحفاظ على الطاقة بينما كانوا يحاولون تحديد ما حدث.

هبط المسبار الجديد "أثينا" من مداره القمري كما هو مخطط له، وبدا أن الهبوط الذي استغرق ساعة تم بشكل جيد حتى الاقتراب الأخير عندما بدأ نظام الملاحة بالليزر في التسبب بمشاكل.

وبعد ساعات من الهبوط، قال الرئيس التنفيذي لشركة Intuitive Machines، ستيف ألتيموس، إن هناك بيانات متضاربة حول كيفية هبوط "أثينا" وما إذا كان قد استقر على جانبه.

وكان المسبار قريبًا من موقع الهبوط المستهدف، لكن مسحًا سيقوم به مسبار "مستكشف القمر المداري" التابع لناسا في الأيام القادمة سيتأكد من موقعه واتجاهه.

تم إطلاق "أثينا" الأسبوع الماضي، وكان يتواصل مع المراقبين على بعد أكثر من 375 ألف كيلومتر وكان يولد الطاقة الشمسية.

وعمل المشرفون على إنقاذ المهمة لمعرفة ما إذا كان يمكن تشغيل المثقاب وإطلاق الطائرة المسيرة.

قالت نكي فوكس، المسؤولة العلمية الأولى في ناسا "من الواضح أنه بدون معرفة الوضع الدقيق للمسبار، من الصعب القول بالضبط أي الاختبارات سنتمكن من إجرائها وأيها لا."

وفي العام الماضي، أعادت شركة Intuitive Machines الولايات المتحدة إلى القمر رغم أن مركبتها الفضائية انقلبت على جانبها.

في يوم الأحد، أصبحت شركة "فايرفلاي إيروسبيس" أول كيان خاص يحقق نجاحًا كاملاً مع مسبارها "بلو غوست" على الحافة الشمالية الشرقية للجانب القريب من القمر.

وتعد هذه المحاولات المتتالية جزءًا من برنامج ناسا للهبوط التجاري على سطح القمر، الذي يهدف إلى إرسال تجارب الوكالة إلى سطح القمر وتحفيز الأعمال التجارية.

كما يُنظر إلى هذه الرحلات الفضائية التجارية، ككشافة للرواد الذين سيتبعون في وقت لاحق من هذا العقد في إطار برنامج "أرتيميس" التابع لناسا، الذي يعد خليفة لبرنامج "أبولو".

وأنفقت ناسا عشرات الملايين من الدولارات على مثقاب الجليد وأداتين أخريين كانتا على متن "أثينا"، ودفعوا مبلغًا إضافيًا قدره 62 مليون دولار من أجل النقل.

ولم يكن للولايات المتحدة أي هبوط على القمر منذ رحلة "أبولو 17" عام 1972. ولم ترسل أي شخص آخر إلى القمر، وهو الهدف الأساس لبرنامج ناسا "أرتيميس".

ونجحت أربع دول أخرى فقط في الهبوط بمركبات فضائية روبوتية على القمر وهي روسيا والصين والهند واليابان.