تكنولوجيا التعرف على الوجه قد تظهر مطابقات خاطئة . أرشيفية - تعبيرية
تكنولوجيا التعرف على الوجه قد تظهر مطابقات خاطئة . أرشيفية - تعبيرية

تسببت "مطابقات" خاطئة باستخدام تكنولوجيا "التعرف على الوجه" في مدينة ديترويت بولاية ميشيغان في اعتقالات غير صحيحة، ما أجبر إدارة الشرطة على تبني سياسات جديدة.

وبسبب الاعتقالات الخاطئة اضطرت شرطة ديترويت إلى إجراء تسوية، الجمعة، مع أحد الأشخاص الذين اعتقلتهم بشكل خاطئ، والتي تضمن اعتماد "قواعد جديدة لاستخدام الشرطة تقنيات التعرف على الوجه"، بحسب تقرير نشرته صحيفة نيويورك تايمز.

وتكنولوجيا "التعرف على الوجه" هي تقنية للتحقق من هوية الشخص من خلال صورة رقمية أو فيديو، اعتمادا على ملامح الوجه التي تكون مخزنة في قاعدة البيانات أو على الإنترنت، باستخدام "خوارزميات" معقدة تعمل بأنظمة الذكاء الاصطناعي أحيانا.

وقال اتحاد الحريات المدنية الأميركي، الذي مثّل أحد ضحايا هذه التكنولوجيا أن هذه القواعد الجديدة يجب أن "تمثل المعيار الوطني الجديدة" لاستخدام تقنيات التعرف على الوجه.

وكان روبرت ويليامز أول شخص تعتقله شرطة ديترويت، في عام 2020، بشكل خاطئ بعد اعتمادها على تقنية التعرف على الوجه، التي حددته كمشتبه به في قضية.

وتشير الصحيفة إلى أن وكالات إنفاذ القانون في جميع الولايات تستخدم "تقنية التعرف على الوجه" لتحديد المتهمين في جرائم تحدث، إذ تتم مقارنة الصور المتوفرة لمرتكب الجريمة مع "قاعدة بيانات الصور" والتي قد تكون متواجدة في قواعد بيانات رسمية أو حتى تلك المتوفرة على شبكات التواصل الاجتماعي والإنترنت.

وفي ديترويت، كانت الشرطة تقوم بعرض بعض هذه الصور على شهود العيان ضمن مجموعة صور للتعرف عليها، وهذه القاعدة سيتم التخلي عنها، ما لم يكن لديهم دليل حقيقي يربط الصورة التي ولدها نظام التعرف على الوجه بارتكاب الجريمة.

وتقول أجهزة إنفاذ القانون إن تقنية التعرف على الوجه "أداة قوية للمساعدة في حل الجرائم"، ولكن بعض المدن والولايات حظرت استخدمها مثل سان فرانسيسكو وأوستن بتكساس وبورتلاند في أوريغون بسبب "مخاوف الخصوصية والتحيز العنصري".

تقنية التعرف على الوجوه مثار تساؤلات
رغم "أخطائها العنصرية".. هل تصلح تقنية "التعرف على الوجوه" في مكافحة الجريمة؟
يثير استخدام تقنية التعرف إلى الوجه الكثير من الجدل داخل وخارج الولايات المتحدة، وذلك بعد تكرار حالات الخطأ في اعتقال أشخاص مشتبه بهم في أميركا، لاسيما من أصحاب البشرة الملونة، وفقا لما ذكرت صحيفة "الغارديان" البريطانية.

وكانت منظمة العفو الدولية قد شنت حملات لحظر استخدام هذه التقنيات من قبل الأجهزة الأمنية، مؤكدة أن الصور التي تستخدم في إعداد مثل هذه الأنظمة تعتمد في الأغلب على الوجوه البيضاء، وبالتالي فإنها تتمتع بأدنى معدلات الدقة عندما يتعلق الأمر بتحديد الأشخاص من ذوي البشرة الداكنة، والإناث والذين تتراوح أعمارهم بين 18 و30 عاما.

وبحسب دراسة أجراها المعهد الوطني للمعايير والتقنية (NIST) الأميركي خلال عام 2017 على 140 حالة للتعرف على الوجوه، تبيّن أن "المعدلات الإيجابية الخاطئة هي الأعلى في غرب وشرق أفريقيا وشرق آسيا، والأدنى في الأفراد بشرق أوروبا".

هذه التوصية جاءت بعدما أجرت اللجنة تدقيقاً في حالتي تزييف عميق لامرأتين مشهورتين في الهند والولايات المتحدة.
هذه التوصية جاءت بعدما أجرت اللجنة تدقيقاً في حالتي تزييف عميق لامرأتين مشهورتين في الهند والولايات المتحدة.

طلبت لجنة الإشراف في شركة "ميتا"، الخميس، من الشركة الكبرى المتخصصة في وسائل التواصل الاجتماعي، تكييف قواعدها المتعلقة بـ"التزييف العميق"، ما يُعرف بـ"ديب فايك"، الإباحي مع عصر الذكاء الاصطناعي التوليدي لا مع مرحلة "فوتوشوب".

ورفعت اللجنة المؤلفة من شخصيات وخبراء مستقلين وتعتبر بمثابة "المحكمة العليا" للإشراف على المحتوى في فيسبوك وإنستغرام، هذه التوصية بعدما أجرت تدقيقاً في حالتي تزييف عميق لامرأتين مشهورتين في الهند والولايات المتحدة.

وفي إحدى الحالتين، بقيت الصورة التي تم التلاعب بها ونشرها عبر إنستغرام في شبكة الإنترنت رغم تقديم شكوى بشأنها. أما في الحالة الأخرى، فلم تسمح المنصة بنشر الصورة. ورُفعت النتيجتان إلى اللجنة.

وقررت اللجنة أن حالتي التزييف العميق انتهكتا قاعدة تعتمدها "ميتا" راهناً ضد ممارسة تسمى "فوتوشوب يضفي طابعاً جنسياً وينطوي على إساءة"، وأن "ميتا" عليها أن تسهل فهم هذه القاعدة.

وتتضمن هذه الفئة التي حددتها "ميتا" الصور التي يتم التلاعب بها وإضفاء طابع جنسي عليها بطريقة قد تثير استياء الأشخاص الذين يظهرون في الصور.

وطُرح برنامج تعديل الصور "فوتوشوب" للمرة الاولى في الأسواق سنة 1990، وتم استخدامه على نطاق واسع لدرجة أنه أصبح مرجعاً شائعاً لتعديل الصور.

وذكرت لجنة الإشراف أن الإشارة إلى "فوتوشوب" في قاعدة تتمحور على "التزييف العميق" الإباحي "محدودة جداً"، في وقت يمكن لتقنيات مثل الذكاء الاصطناعي التوليدي ابتكار صور أو مقاطع فيديو استناداً إلى طلب بلغة يومية بسيطة.

واقترحت على "ميتا" الإشارة إلى أن أي محتوى ينطوي على طابع جنسي ولا يحظى بموافقة الطرف المعني تم ابتكاره أو التلاعب به بواسطة الذكاء الاصطناعي، محظور.

وعندما أُنشئت اللجنة سنة 2020، وافقت "ميتا" على الالتزام بقراراتها المتعلقة بمحتوى محدد، لكن الشركة الأميركية تستطيع أن تعتمد كما تشاء توصيات اللجنة المتعلقة بقواعدها.