التقنيات الصوتية التي تستخدمها تطبيقات الذكاء الاصطناعي تعتمد على استخدام أصوات نسائية. (أرشيفية-تعبيرية)
تمكن أحد المتسللين من الوصول إلى أنظمة المراسلة الداخلية لـ"أوبن إيه آي" العام الماضي.

ذكرت صحيفة "نيويورك تايمز" أن أحد المتسللين سرق أسرار شركة "أوبن إيه آي"، ما أثار مخاوف من أن الصين قد تفعل ذلك أيضًا، موضحة أن الخرق الأمني في "أوبن إيه آي"، الشركة المصنعة لـ"شات جي بي تي"، كشف عن مناقشات داخلية بين الباحثين والموظفين الآخرين، ولكن لم يكشف عن الكود وراء أنظمتها.

وأوضحت الصحيفة أنه في أوائل العام الماضي، تمكن أحد المتسللين من الوصول إلى أنظمة المراسلة الداخلية لـ"أوبن إيه آي" وهي الشركة المصنعة لـ"شات جي بي تي"، وسرق تفاصيل حول تقنيات الشركة لتصميم الذكاء الاصطناعي.

ووفقا للصحيفة، حصل المتسلل على تفاصيل من المناقشات في منتدى عبر الإنترنت حيث تحدث الموظفون عن أحدث تقنيات "أوبن إيه آي"  وفقًا لشخصين مطلعين على الحادث، لكنه لم يصل إلى الأنظمة التي تستضيف فيها الشركة ذكاءها الاصطناعي وتبنيه.

وكشف المسؤولون التنفيذيون في "أوبن إيه آي" عن الحادث للموظفين خلال اجتماع شامل في مكاتب الشركة في سان فرانسيسكو في أبريل 2023، وفقًا لشخصين ناقشا معلومات حساسة حول الشركة مع الصحيفة بشرط عدم الكشف عن هويتهما.

لكن المسؤولين التنفيذيين قرروا عدم مشاركة الأخبار علنًا لأنه لم تتم سرقة أي معلومات حول العملاء أو الشركاء، على حد قول الشخصين للصحيفة.

 ولم يعتبر المسؤولون التنفيذيون الحادث تهديدًا للأمن القومي لأنهم اعتقدوا أن المتسلل كان فردًا عاديًا ليس له علاقات معروفة بحكومة أجنبية. ولم تبلغ الشركة مكتب التحقيقات الفيدرالي. أو أي شخص آخر في مجال إنفاذ القانون، بحسب الصحيفة.

لكن الصحيفة أوضحت أنه بالنسبة لبعض موظفي  "أوبن إيه آي"، أثارت الأخبار مخاوف من أن الخصوم الأجانب مثل الصين قد يسرقون الذكاء الاصطناعي.

وأشارت إلى أن هذه التكنولوجيا التي، رغم أنها الآن في الغالب أداة عمل وبحث، يمكن أن تعرض الأمن القومي الأميركي للخطر في نهاية المطاف. كما أدى ذلك إلى تساؤلات حول مدى جدية تعامل "أوبن إيه آي" مع الأمن، وكشف عن انقسامات داخل الشركة حول مخاطر الذكاء الاصطناعي.

وبعد الاختراق، ركز ليوبولد أشنبرينر، مدير البرنامج الفني في "أوبن إيه آي"، على ضمان مستقبل الذكاء الاصطناعي. وأرسلت شركة "أوبن إيه آي"، مذكرة إلى مجلس إدارة شركة "أوبن إيه آي"، تزعم فيها أن الشركة لم تفعل ما يكفي لمنع الحكومة الصينية وغيرها من الخصوم الأجانب من سرقة أسرارها، بحسب الصحيفة.

وقال أشنبرينر إن شركة "أوبن إيه آي" طردته، هذا الربيع، بسبب تسريب معلومات أخرى خارج الشركة.

وأضاف أن إقالته كانت ذات دوافع سياسية، وألمح إلى الاختراق في بث صوتي حديث، لكن لم يتم الإبلاغ عن تفاصيل الحادث مسبقًا. وقال إن أمن "أوبن إيه آي" لم يكن قوياً بما يكفي للحماية من سرقة الأسرار الرئيسية إذا تسللت جهات فاعلة أجنبية إلى الشركة.

وقالت ليز بورجوا، المتحدثة باسم "أوبن إيه آي"، "نحن نقدر المخاوف التي أثارها ليوبولد أثناء وجوده في "أوبن إيه آي"، ، وهذا لم يؤد إلى انفصاله". وفي إشارة إلى جهود الشركة لبناء ذكاء اصطناعي عام، وهي آلة يمكنها أن تفعل أي شيء يمكن للعقل البشري القيام به، أضافت: "بينما نشاركه التزامه ببناء الذكاء الاصطناعي العام الآمن، فإننا نختلف مع العديد من الادعاءات التي أطلقها منذ ذلك الحين بشأن عمل ذكاءنا الاصطناعي".

وترى الصحيفة أن المخاوف من أن يكون لاختراق شركة تكنولوجيا أميركية صلات بالصين ليست مستعبدة أو مستحيلة. وفي يونيو الماضي، أدلى براد سميث، رئيس شركة مايكروسوفت، بشهادته في الكابيتول هيل حول كيفية استخدام المتسللين الصينيين لأنظمة شركة التكنولوجيا العملاقة لشن هجوم واسع النطاق على شبكات الحكومة الفيدرالية.

ومع ذلك، بموجب القانون الفيدرالي وقانون كاليفورنيا، لا تستطيع شركة "أوبن إيه آي" منع الأشخاص من العمل في الشركة بسبب جنسيتهم، وقد قال باحثو السياسة إن منع المواهب الأجنبية من المشاريع الأميركية يمكن أن يعيق بشكل كبير تقدم الذكاء الاصطناعي في الولايات المتحدة الأميركية.

وقال مات نايت، رئيس الأمن في "أوبن إيه آي"، لصحيفة "نيويورك تايمز" "نحن بحاجة إلى أفضل وألمع العقول للعمل على هذه التكنولوجيا، ورغم أن الأمر يأتي مصحوبًا ببعض المخاطر، ونحن بحاجة إلى اكتشافها".

وأوضحت الصحيفة أن الذكاء الاصطناعي يمكنه اليوم أن يساعد الأنظمة في نشر المعلومات المضللة عبر الإنترنت، بما في ذلك النصوص والصور الثابتة ومقاطع الفيديو بشكل متزايد.

هذه التوصية جاءت بعدما أجرت اللجنة تدقيقاً في حالتي تزييف عميق لامرأتين مشهورتين في الهند والولايات المتحدة.
هذه التوصية جاءت بعدما أجرت اللجنة تدقيقاً في حالتي تزييف عميق لامرأتين مشهورتين في الهند والولايات المتحدة.

طلبت لجنة الإشراف في شركة "ميتا"، الخميس، من الشركة الكبرى المتخصصة في وسائل التواصل الاجتماعي، تكييف قواعدها المتعلقة بـ"التزييف العميق"، ما يُعرف بـ"ديب فايك"، الإباحي مع عصر الذكاء الاصطناعي التوليدي لا مع مرحلة "فوتوشوب".

ورفعت اللجنة المؤلفة من شخصيات وخبراء مستقلين وتعتبر بمثابة "المحكمة العليا" للإشراف على المحتوى في فيسبوك وإنستغرام، هذه التوصية بعدما أجرت تدقيقاً في حالتي تزييف عميق لامرأتين مشهورتين في الهند والولايات المتحدة.

وفي إحدى الحالتين، بقيت الصورة التي تم التلاعب بها ونشرها عبر إنستغرام في شبكة الإنترنت رغم تقديم شكوى بشأنها. أما في الحالة الأخرى، فلم تسمح المنصة بنشر الصورة. ورُفعت النتيجتان إلى اللجنة.

وقررت اللجنة أن حالتي التزييف العميق انتهكتا قاعدة تعتمدها "ميتا" راهناً ضد ممارسة تسمى "فوتوشوب يضفي طابعاً جنسياً وينطوي على إساءة"، وأن "ميتا" عليها أن تسهل فهم هذه القاعدة.

وتتضمن هذه الفئة التي حددتها "ميتا" الصور التي يتم التلاعب بها وإضفاء طابع جنسي عليها بطريقة قد تثير استياء الأشخاص الذين يظهرون في الصور.

وطُرح برنامج تعديل الصور "فوتوشوب" للمرة الاولى في الأسواق سنة 1990، وتم استخدامه على نطاق واسع لدرجة أنه أصبح مرجعاً شائعاً لتعديل الصور.

وذكرت لجنة الإشراف أن الإشارة إلى "فوتوشوب" في قاعدة تتمحور على "التزييف العميق" الإباحي "محدودة جداً"، في وقت يمكن لتقنيات مثل الذكاء الاصطناعي التوليدي ابتكار صور أو مقاطع فيديو استناداً إلى طلب بلغة يومية بسيطة.

واقترحت على "ميتا" الإشارة إلى أن أي محتوى ينطوي على طابع جنسي ولا يحظى بموافقة الطرف المعني تم ابتكاره أو التلاعب به بواسطة الذكاء الاصطناعي، محظور.

وعندما أُنشئت اللجنة سنة 2020، وافقت "ميتا" على الالتزام بقراراتها المتعلقة بمحتوى محدد، لكن الشركة الأميركية تستطيع أن تعتمد كما تشاء توصيات اللجنة المتعلقة بقواعدها.