المساعد الصوتي سيري
المساعد الصوتي سيري

أصدرت آبل اعتذارا رسميا، الأربعاء، على خلفية ممارسات للشركة تتعلق بانتهاك خصوصية المستخدمين، يقوم بموجبها متعاقدون بالاستماع سرا إلى محادثات من يملكون أجهزتها مع المساعد الصوتي "سيري" بهدف تحسين خدمة الأخير.

وقالت آبل في بيان "ندرك أننا لم نلتزم تماما بمثلنا العليا، ولهذا نعتذر".

وأعلنت الشركة أنها لن تحتفط من الآن فصاعدا بتسجيلات صوتية للمحادثاث مع سيري، وستواصل استخدام نماذج النصوص التي يصدرها الكمبيوتر للمساعدة في تحسين الخدمة.

ودعت آبل المستخدمين إلى "المساعدة في تحسين أداء سيري من خلال موافقتهم على ذلك واستخدام تسجيلات من اختيارهم، موضحة إمكانية وقف هذا التعاون في أي وقت يريده المستخدم".

وتابعت في البيان، أنه عندما يوافق المستخدم على المساعدة في تحسين أداء سيري، فإنه سيسمح لموظفي آبل بالاستماع إلى تلك المحادثات، مشيرة إلى أن هؤلاء سيحذفون أي تسجيل يرون أن المستخدم لم يقصد مشاركته.

وتعد آبل واحدة من كبريات شركات التكنولوجيا وبينها غوغل وأمازون وفيسبوك ومايكروسوفت، التي تبين أنها تعتمد على متعاقدين مدفوعي الأجر لمراجعة تسجيلات من مساعدها الصوتي، وذلك من دون أي توضيح مسبق في هذا الإطار للمستخدمين.

وبحسب تقرير لصحيفة الغارديان، فإن أولئك المتعاقدين كان بإمكانهم الاطلاع على تسجيلات مليئة بتفاصيل شخصية للمستخمين، وطلب منهم الاستماع إلى ما يصل إلى ألف تسجيل في اليوم.

وأعلنت آبل في أعقاب ذلك التقرير أنها ستوقف البرنامج الذي يقوم بمراجعة التسجيلات، وأكدت حينها "التزامها بتقديم تجربة سيري رائعة مع حماية خصوصية المستخدم".

مخاوف من الأضرار التي قد تسببها التقنيات العصبية بدون ضوابط
مخاوف من الأضرار التي قد تسببها التقنيات العصبية بدون ضوابط

حذرت الأمم المتحدة، الأربعاء، من المخاطر "غير المسبوقة" التي تشكلها التقنيات العصبية على خصوصية الأفراد واستقلاليتهم، رغم "إمكانياتها الهائلة" في الطب والاتصالات والبحوث.

وفي كلمتها أمام مجلس حقوق الإنسان في دورته الـ58، قالت آنا نوغريس، مقررة الأمم المتحدة الخاصة بالحق في الخصوصية، إن هذه التقنيات، التي يمكنها تسجيل وفك تشفير وحتى تعديل نشاط الدماغ، "تثير تحديات أخلاقية وقانونية قد تؤثر على الحقوق الأساسية، خصوصًا الحق في الخصوصية".

وسلط تقرير الخبيرة الأممية الضوء على فوائد ومخاطر التقنيات العصبية.

وأكد أنه على الرغم من أنها تُقدم حلولا رائدة لعلاج الاضطرابات العصبية، وتحسين الوظائف الإدراكية، وتوسيع القدرات البشرية، إلا أنه أشار إلى قدرة التقنيات العصبية على الوصول إلى أفكار الأفراد ومشاعرهم الحميمية، محذرا من مخاطر المراقبة غير المصرح بها أو الإكراه.

وأوضحت نوغريس أن الوصول غير المصرح به إلى نشاط الدماغ قد يستغل للتأثير على القرارات الشخصية والسلوكيات والأيديولوجيات، مما يُضعف الاستقلالية الشخصية والسلامة العقلية.

كما حذرت من إمكانية تحفيز أنماط عصبية معينة بشكل مصطنع، مما قد يؤدي إلى تشكيل الآراء أو المشاعر أو حتى الذكريات، وهو ما يمثل تهديدا جوهريا للإرادة الحرة.

وأشار التقرير إلى أن معالجة البيانات العصبية قد تؤدي إلى شكل جديد من التمييز، مما يعمّق التفاوتات الاجتماعية ويخلق فئة جديدة من الأفراد المهمشين بناءً على خصائصهم العصبية.

كما نبه إلى مخاطر اختراق هذه التقنيات التي تربط نشاط الدماغ بالشبكات الرقمية، مما قد يعرض الأفراد لسرقة الهوية أو السماح لجهات خارجية بالتأثير على نشاطهم العصبي عن بعد.

وشددت الخبيرة الأممية على أن تنظيم التقنيات العصبية ليس مجرد ضرورة قانونية، بل هو ضرورة أخلاقية، مؤكدة أن التحرك الفوري لوضع ضمانات صارمة هو أمر أساسي لضمان استخدام هذه التقنيات لخدمة البشرية بدلا من استغلالها.