خبراء الخصوصية يشرحون إمكانية وصول صاحب العمل للمحادثات الرقمية بين الموظفين
خبراء الخصوصية يشرحون إمكانية وصول صاحب العمل للمحادثات الرقمية بين الموظفين

بعد يومين من إتمام عملية استحواذه على شركة تويتر، نشر الملياردير الأميركي، إيلون ماسك، صورة ملتقطة عبر الشاشة لمحادثة داخلية لأحد الموظفين عبر خدمة "سلاك".

وتقول صحيفة "واشنطن بوست" إن تصرف ماسك بنشره محادثة أحد موظفي الشركة عبر حسابه الشخصي يمثل "تذكيرا صارخا" للعاملين في كل مكان بضرورة الحفاظ على خصوصية رسائلهم.

ونظرا لأن المزيد من الشركات تسمح لموظفيها بالعمل عن بُعد سواء، بدوام جزئي أو بدوام كلي، فإن القوى العاملة تتجه إلى الخدمات الرقمية مثل "سلاك" أو "مايكروسوفت تيمز" أو خدمة الدردشة عبر غوغل بهدف إنجاز عملهم والتعاون والتواصل مع بعضهم البعض. 

في بعض الأحيان، يقوم الموظفون بمحادثات غير رسمية في تطبيقات المراسلة التي تتعلق بالعمل وأحيانا مواضيع تخص علاقات شخصية مما يؤدي إلى حفظ هذه البيانات لدى الشركة.

تحدثت صحيفة "واشنطن بوست" إلى العديد من خبراء خصوصية البيانات لشرح كيفية استخدام الموظفين لتطبيقات التواصل فيما بينهم.

هل يحق لصاحب العمل رؤية رسائلي الخاصة؟

يتفق خبراء الخصوصية على أن هناك شيئين يجب على الموظفين التفكير فيهما عندما يرسلون رسالة إلى زميل. 

أولا، هل الخدمة التي تستخدمها مقدمة من صاحب العمل؟ ثانيا، هل تجري المحادثة على جهاز يوفره لك صاحب العمل؟

إذا كانت الإجابة على أي من هذه الأسئلة بنعم، فاعلم أن هناك فرصة أن يرى صاحب العمل رسائلك أو يستردها. 

بالإضافة إلى ذلك، حتى إذا كنت تستخدم جهازك الخاص وحسابك الشخصي على خدمة رقمية خاصة بالعمل، فقد تظل رسائلك معرضة للخطر إذا كان لديك برنامج مكان العمل مثبتا.

وقال آلان بتلر، المدير التنفيذي رئيس منظمة الأبحاث بمركز معلومات الخصوصية الإلكترونية، وهو مركز أبحاث للمصلحة العامة في واشنطن العاصمة يسعى لحماية الخصوصية وحرية التعبير والقيم الديمقراطية في عصر المعلومات، "العبء يقع على الفرد (لفهم كل شيء)".

وأضاف بتلر أن القاعدة العامة هي افتراض أنه إذا كان مكان عملك يوفر لك أداة أو جهازا، فيمكنهم وسيشاهدون ما تفعله. 

في بعض الحالات، قد يعني ذلك استخدام حق الامتيازات الإدارية لقراءة الرسائل المباشرة أو القنوات الخاصة على مساحة عمل "سلاك" الخاصة بالشركة. كما يعني ذلك إمكانية استرداد رسائل البريد الإلكتروني التي توفرها الشركة.

وقالت كبيرة الزملاء بمركز الخصوصية والتكنولوجيا بجامعة جورجتاون، سينثيا كوو، إن الأمر يمكن أن يصبح ذا أهمية خاصة إذا كان العمال يستخدمون تطبيقات المراسلة للاتحاد ضد ظروف أو سياسات العمل غير العادلة.

وتابعت: "هناك مستوى من المراقبة كان في ارتفاع. ولكن هناك مستوى إضافي من المراقبة يهدف إلى سحق تنظيم العمال ونشاطهم".

ماذا يمكن للموظفين أن يفعلوا؟

إذا كنت ترغب في إجراء محادثة خاصة مع زميل، فمن الأفضل أن تفعل ذلك على جهازك الخاص باستخدام خدماتك، كما يؤكد الخبراء. 

وقالت كوو: "ابحث عن الخدمات التي توفر تشفيرًا من طرف إلى طرف مقابل الرسائل المشفرة فقط. يعني التشفير من طرف إلى طرف أنه سيتم تشفير رسالتك في اللحظة التي تسبق مغادرتها جهازك حتى وصولها إلى جهاز الاستقبال. أي شيء أقل من ذلك يعني أنه يمكن فك تشفيره في مكان ما أثناء الإرسال".

يتفق العديد من الخبراء على أن تطبيق سيغنال يقدم خدمة مشفرة للرسائل الخاصة، وهو حل مناسب للتحدث شرط أن يكون ذلك من جهازك الشخصي.

تطبيق واتساب الشهير أيضا بديل شائع، على الرغم من أن كوو تشير إلى أن المستخدمين يجب أن يدركوا أنه مملوك لشركة "ميتا" التي تشتهر على نطاق واسع بجمع البيانات الضخمة.

ومع ذلك، يرى خبراء أن المحادثات الرقمية لا تعطي خصوصية كاملة حتى مع أفضل البرامج.

وقال بتلر إنه "لا يوجد شيء مضمون"، مضيفا أن تطبيق سيغنال لا يسمح بالتقاط لقطة للشاشة، لكن يمكن للمتلقي تصوير المحادثة عبر هاتف آخر.

وقالت كوو إن الأفضل التواصل المباشر على الطريقة القديمة بدلا من التحدث عبر التطبيقات الرقمية.

وكلاء الذكاء الاصطناعي

في عالم يتسابق باتجاه التحول الرقمي الكامل، لم يعد الذكاء الاصطناعي خيالا علميا، بل محركا صامتا يعيد تشكيل وجودنا في العمل وفي التفاعل الاجتماعي وأنماط العيش.

 من الصوت داخل هاتفك، إلى الروبوت على خط الإنتاج، أصبح وكلاء الذكاء الاصطناعي جزءا أساسيا من حياتنا اليومية.

من هم هؤلاء الوكلاء؟ 

كيف يعملون؟ 

ولماذا التحذيرات من أننا قد نفقد السيطرة عليهم؟

وكيل الذكاء الاصطناعي

افترض أنك تستيقظ صباحا وتطلب من هاتفك ترتيب جدول أعمالك، أو أن تقودك سيارتك إلى العمل بينما تتصفح أنت كومبيوترك اللوحي، أو أن يقترح عليك تلفزيونك الذكي مشاهدة فليم يناسب مزاجك.

هذه المهام تعتمد كلها على وكلاء الذكاء الاصطناعي.

في اللغة الرقمية، وكيل الذكاء الاصطناعي هو نظام برمجي ذكي قادر على إدراك البيئة المحيطة، وتحليل البيانات، واتخاذ قرارات لتحقيق أهداف محددة، وغالبا دون تدخل بشري مباشر. 

مرة أخرى، يمكن أن يكون الوكيل مساعدا صوتيا مثل "سيري" أو "أليكسا"، أو نظام تخصيص "أو توصيات" مثل نتفليكس وأمازون، أو روبوتا صناعيا يعمل على خطوط الإنتاج.

يتفاعل بعض الوكلاء مع المحفزات الآنية، بينما يعتمد البعض الآخر على أهداف محددة أو قرارات مبنية على تعظيم الفائدة. وهناك من يتعلم باستمرار من تجاربه — ليحسن أداءه مع الوقت.

مشهد الابتكار... والقلق

يوفر الذكاء الاصطناعي إمكانات هائلة. ففي التصنيع، تعمل الروبوتات بدقة وكفاءة. في الطب، تساعد الأنظمة الذكية في التشخيص. وفي عالم الأموال، تقود أنظمة الكشف عن الاحتيال وتقدم مقترحات بشأن الاستثمارات.

يساهم وكالاء الذكاء الاصطناعي في، زيادة الإنتاجية، وتقليل التكاليف التشغيلية، ودعم اتخاذ قرارات أكثر ذكاء، وفي تقديم خدمات يمكن توسيعها وتكييفها.

لكن فوائد الوكلاء تسير يدا بيد مع مخاطر موازية. يمكن التلاعب بوكلاء الذكاء الاصطناعي أو اختراقهم. وقد يرثون الانحياز البشري بناء على بيانات غير موضوعية. ويمكن أن يؤدي الإفراط في الاعتماد على الوكلاء إلى تآكل المهارات البشرية الأساسية. 

والأسوأ، إن لم نضبطهم بشكل صحيح، قد يتصرفون بطريقة مفاجئة وربما ضارة.

تحذير الأب الروحي

"أسرع مما توقعه كثيرون،" يقول جيفري هينتون، المعروف بـ"الأب الروحي للذكاء الاصطناعي،" الحائز على جائزة نوبل، في مقابلة مع شبكة CBS News، تعبيرا عن قلقه من سرعة تطور وكلاء الذكاء الاصطناعي.

"علينا أن نبدأ الآن في التفكير بكيفية تنظيم هذه الأنظمة،" يضيف، "الخطر لا يقتصر على استبدال الوظائف، بل يشمل إمكانية أن تتجاوز قدراتنا الفكرية".

وأشار إلى هينتون إلى أن بعض أنظمة الذكاء الاصطناعي بدأت باتخاذ قرارات ذاتية دون رقابة بشرية، وذكر تطبيقات عسكرية واستخدامات مثيرة للجدل مثل اختيار الأجنة.

ويحذر هينتون من أن القوانين الخاصة بالذكاء الاصطناعي غير كافية حتى الآن، وخطيرة.

التحدي الأكبر: السيطرة

الخوف لم يعد نظريا فقط. فبعض النماذج الحالية قادرة على التعلم الذاتي وحل المشكلات بشكل مستقل ما يعقد محاولات السيطرة عليها.

وفي الحديث عن علاقتنا بالذكاء الاصطناعي، يبرز سؤال أساسي : هل يمكننا ضمان توافق هؤلاء الوكلاء مع القيم الإنسانية؟ وماذا إذا لم نتمكن من ذلك؟

تبقى المخاطر باهظة الكلفة. إذ يؤدي غياب التوافق الأخلاقي إلى مراقبات جماعية، ونشر معلومات مضللة، بما يهدد السلامة العامة والديمقراطيات في الدول الديمقراطية. 

ويزعم نقاد الآلة أن الشركات الكبرى تنشر نماذج قوية دون رقابة كافية، وتُفضل الربح على السلامة العامة.

الموازنة بين التقدم والأخلاق

وللمضي في هذا المسار، يدعو خبراء إلى تأسيس أطر تنظيمية عالمية تتضمن المبادئ الأخلاقية والشفافية والمساءلة لتطوير وكلاء الذكاء الاصطناعي.

ويرى الخبراء ألا غنى عن السياق الثقافي. ففي بعض المجتمعات، قد تلعب قيم راسخة في خلق فجوة في الوعي الرقمي. لذلك، لا يكفي التطور التقني، بل يتطلب أيضا بناء الثقة المجتمعية.

الطريق إلى الأمام

الذكاء الاصطناعي سيف ذو حدين. إنه مفتاح لحل بعض أعقد مشكلات البشرية، إذا تمت إدارته بحكمة.

ومع تزايد المخاوف بشأن استقلالية وكلاء الذكاء الاصطناعي، تصبح الحاجة لتطويرهم وتوجيههم أكثر إلحاحا.