عند إطلاقه، قال مطورو نموذج الذكاء الصناعي ChatGPT إنهم حرصوا على أن يكون روبوت المحادثة الخاص بهم – والمنتجات الأخرى المرتبطة به – حيادية في ما يتعلق بالمواضيع الدينية والسياسية الخلافية، لكنهم حذروا من أن "النبع الذي يستقي منه الروبوت المعلومات هو المستخدمون والإنترنت".
بمعنى أن "النبع" المتحيز للمعلومات قد يؤدي بالنموذج إلى تعلم مفاهيم متحيزة.
والآن، يحذر خبراء الصناعة والأمن، ومنافسون مثل إيلون ماسك، من الشيء ذاته.
والاثنين قال ماسك، خلال لقاء مطول مع مقدم الأخبار في شبكة فوكس نيوز، تاكر كارلسون، إن ChatGPT لديه "تحيز ليبرالي"، وهو يميل للإدلاء بآراء "يسارية".
وقدم خبير البرمجيات "حسن الشماع" لموقع "الحرة" أدلة على ما يعتقد أنه تحيز واضح يظهره نموذج الذكاء الصناعي، الذي تم سؤاله بالعربية عن العمر المناسب للسماح للفرد بتغيير جنسه، وهي قضية خلافية بين الليبراليين والمحافظين.
وفقا للصور التي زودنا بها الشماع، يقترح النموذج أن يسمح حتى للأطفال بتغيير جنسهم، ويقترح عدم فرض أي قيود عمرية، ويدعو إلى أن "نتبنى منهجية متسامحة ومتفتحة تجاه هذا الموضوع".
وفي سؤال آخر يقول النموذج إن بإمكان "طفل بعمر عشر سنوات أن يحدد جنسه".
لكن حينما سأل موقع "الحرة" نفس السؤال باللغة الإنكليزية، أجاب النموذج بشكل أكثر موضوعية، وذكر عدة حجج يوردها طرفا النقاش، وذكر قبلها بأنه "نموذج لغوي غير قادر على تبني آراء".
كما قال في حالة الطفل المفترضة إنه يجب أن يترك القرار النهائي للعائلة والأطباء.
ويقول الشماع، الذي يعمل مهندس برمجيات في شركة أمازون في الولايات المتحدة إن هذا التباين يشير فعلا إلى أن النموذج يتعلم من البيئة التي تحيط به، وهو يتأثر بآراء المستخدمين.
لكن الشماع يقول إنه "بما أن النموذج اللغوي يتعلم وفقا لقواعد وضعها مبرمجوه، فإن من الآمن أن نفترض أن المبرمجين سمحوا بتسرب أفكار متحيزة إلى النظام، تبناها البرنامج وأصبح يعبر عنها".
ويعتقد الشماع أن هذا "خطر".
كيف يمكن أن "يفرض" الروبوت "رأيه"؟
يقول أندرو موريسون، زميل تطوير البرمجيات لدى موقع Springfield التقني، إن النماذج اللغوية يطورها مبرمجون يقررون المعلومات المحددة التي يجب تدريب النموذج عليها.
ويضيف لموقع “الحرة" إن المطورين يقررون أيضا ما يسمح للنماذج بأن تطرحه كمخرجات للمستخدمين، مما يجعلهم مسؤولين عن "تصفية المعلومات" باتجاه أو آخر.
ويضيف موريسون أن المخاطر المحتملة من هذا السلوك تنقسم إلى مخاطر آنية ومستقبلية، الآنية منها هي "إمكانية اندماج الذكاء الاصطناعي في العديد من البيئات مع المستهلكين، وبالتالي يمكن تزويد مستهلكي هذه المنصات بمعلومات متحيزة ومن المحتمل أن يتأثروا بما يتعرضون له".
لكن المخاطر المستقبلية تبدو أكثر جدية، وفق موريسون، إذ "من المحتمل أن يؤدي التطور في نماذج الذكاء الاصطناعي إلى خلق روبوتات أكثر تطورا وقوة وقدرات، وإذا تبنت هذه الروبوتات آراء سياسية أو آيديولوجية، فقد تبدأ بمحاولة فرض تلك الآراء، وهذه مشكلة".
وقال الملياردير إيلون ماسك إنه سيطلق نموذج ذكاء اصطناعي سيسميه "TruthGPT" ، وسيكون "أقوى نماذج الذكاء الاصطناعي الباحثة عن الحقيقة والتي ستحاول فهم طبيعة الكون".
ويقول ماسك إن "الذكاء الاصطناعي الذي يريد أن يفهم الإنسانية سيكون أقل رغبة بتدميرها".
ورغم أن ماسك معروف بتصريحاته النارية، لكن الحديث عن روبوتات تدمر البشرية هو حديث قديم، ربما حتى قبل اختراع أول روبوت بالمعنى المعروف حاليا.
ووصف ماسك الذكاء الاصطناعي بأنه "أكثر خطورة" من السيارات أو الصواريخ، وقال إن لديه القدرة على تدمير البشرية.
"العبقري المتحيز"
ويقول نائب رئيس مركز الأمن الأميركي، والباحث في معهد "أميركا أولا" للسياسات فريد فليتز إن "المخاوف حقيقية".
ويجمل فليتز لموقع "الحرة" مخاوفه من نماذج الذكاء الاصطناعي بأنها قادرة على "بث آراء معينة وتضخيمها مما يجعل أعدادا أكبر من الناس، وخصوصا الشباب والأطفال، أكثر تأثرا بأجندات سياسية".
ويقول فليتز إن "هناك جهودا للسيطرة وتقنين تأثير هذه النماذج"، لكنه يعترف بأن "الجهود أصغر بكثير من حجم التهديد".
ويحذر فليتز من إن "النماذج التي تتبنى أفكارا معينة تشبه عبقريا عملاقا، متحيزا لفكرة، لا يمكن التنبؤ بما سيفعله".
"إطلاق المارد"
وفي مارس الماضي، أعلن إيلون ماسك تأسيس شركة جديدة سماها X.AI Corp، يرأسها بنفسه.
ولسنوات عديدة، كما تقول أسوشيتد برس، عبر ماسك عن آراء قوية حول الذكاء الاصطناعي وانتقد قادة التكنولوجيا الآخرين، بما في ذلك مارك زوكربيرغ وبيل غيتس، لامتلاكهم ما وصفه بأنه فهم "محدود" لهذا المجال.
'WAIT FOR IT': @elonmusk hints at lawsuit against AI giant OpenAI https://t.co/DsDdsB7WpT
— Fox News (@FoxNews) April 18, 2023
وكان ماسك مستثمرا مبكرا في OpenAI - الشركة الناشئة وراء ChatGPT - وشارك في رئاسة مجلس إدارتها عند تأسيسها عام 2015 كمختبر أبحاث غير ربحي للذكاء الاصطناعي.
لكن ماسك استقال من مجلس الإدارة في أوائل عام 2018 ومؤخرا، بدأ بمهاجمة OpenAI علنا بسبب "سيطرة مايكروسوفت عليها" وتحولها إلى شركة تبحث عن الأرباح.
OpenAI was created as an open source (which is why I named it “Open” AI), non-profit company to serve as a counterweight to Google, but now it has become a closed source, maximum-profit company effectively controlled by Microsoft.
— Elon Musk (@elonmusk) February 17, 2023
Not what I intended at all.
ويقلق الباحثون الذين تكلم معهم موقع "الحرة" ومهتمون آخرون من تحول التنافس على خلق روبوتات بقدرات هائلة إلى "إطلاق المارد" بشكل لا يمكن السيطرة عليه، كما يقول خبير البرمجيات الشماع.
ويعتقد الشماع إن المنافسة قد تدفع بالمطورين إلى التغاضي عن اعتبارات كثيرة رغبة بخلق النموذج الأقوى والأكثر قدرة.
ويقول الباحث فريد فليتز إن هذا "يجعل من الضروري جدا التحرك السريع لوضع قوانين تحكم الذكاء الاصطناعي" ربما قبل "فوات الأوان".
ومؤخرا، أطلقت شركات كبرى مثل غوغل BARD ومايكروسوفت BING نماذجها الخاصة، أو المطورة بالتعاون مع صانعي ChatGPT.
وتثير هذه المنافسة قلق خبراء الأمن مثل فليتز الذي يقول إن "سجل هذه الشركات في ما يتعلق بفرض آراء معينة وقمع الآراء الأخرى مقلق".