هل يمكن الوثوق بالذكاء الاصطناعي في العمل؟

علوم وتكنولوجيا سبتمبر 2, 2024

أصبح استخدام أدوات الذكاء الاصطناعي مثل شات جي بي تي (ChatGPT) من شركة “أوبن إيه آي” (OpenAI) وكوبايلوت (Copilot) من مايكروسوفت (Microsoft) جزءا من الحياة اليومية في الأعمال.

وتسارُع تطور أدوات الذكاء الاصطناعي يثير مخاوف من أن هذه التكنولوجيا قد تفتح الباب أمام قضايا متعددة تتعلق بالخصوصية والأمان، خاصة في أماكن العمل.

في المقابل، مع شعور قادة الأعمال بالضغط المتزايد لتنفيذ الذكاء الاصطناعي، فإن إنشاء الثقة وفهم كيفية تأثير الذكاء الاصطناعي على سير العمل مع الموظفين أمر بالغ الأهمية للاستفادة من إمكاناته الكاملة في الشركة.

خصوصية الموظفين في قبضة الذكاء الاصطناعي

في مايو/أيار الماضي، أطلق ناشطون -يتبنون حماية الخصوصية- على أداة “ريكول” (Recall) الجديدة من مايكروسوفت لقب “كابوس الخصوصية”، بسبب قدرتها على أخذ لقطات شاشة للحاسوب كل بضع ثوان. وقد لفتت هذه الميزة انتباه هيئة تنظيم المعلومات في المملكة المتحدة، التي تطالب شركة مايكروسوفت بالكشف عن المزيد بشأن أمان المنتج الذي سيتم إطلاقه قريبا في “كوبايلوت بلس” (+Copilot).

وعلى صعيد مواز، تزداد المخاوف من “شات جي بي تي”، الذي أظهر قدرات أخذ لقطات الشاشة في تطبيقه الجديد الذي سيتم إطلاقه على نظام “ماك أو إس” (macOS)، الذي يقول خبراء الخصوصية إنه قد يؤدي إلى التقاط بيانات حساسة.

ومن هذا المنطلق، قام مجلس النواب الأميركي بحظر استخدام كوبايلوت بين الموظفين، بعد أن عدّه مكتب الأمن السيبراني خطرا على المستخدمين بسبب “تهديد تسريب بيانات مجلس النواب إلى خدمات سحابية غير معتمدة من المجلس”.

وفي الوقت نفسه، حذرت شركة تحليل السوق غارتنر من أن استخدام كوبايلوت في “مايكروسوفت أوفيس 365” يكشف عن المخاطر المتعلقة بتسريب البيانات والمحتوى الحساس داخليا وخارجيا. والشهر الماضي، اضطرت غوغل إلى إجراء تعديلات على ميزتها الجديدة في البحث “إيه آي أوفرفيوز” (AI Overviews)، بعد انتشار لقطات شاشة لإجابات مريبة ومضللة على الاستفسارات.

وبالنسبة لأولئك الذين يستخدمون الذكاء الاصطناعي التوليدي في العمل، فإن أحد أكبر التحديات هو خطر تعريض البيانات الحساسة للكشف عن غير قصد.

وفي هذا الصدد، يقول كامدن وولفن، رئيس مجموعة الذكاء الاصطناعي في شركة “جي آر سي إنترناشونال غروب” لإدارة المخاطر، إن معظم أنظمة الذكاء الاصطناعي التوليدي هي في الأساس “إسفنجات كبيرة”، تمتص كميات هائلة من المعلومات من الإنترنت لتدريب نماذج اللغة الخاصة بها.

تتمحور المخاوف حول أدوات الذكاء الاصطناعي التي قد تُستخدم لمراقبة الموظفين، مما قد ينتهك خصوصيتهم. وتُشير ميزة ريكول من مايكروسوفت إلى أن “لقطاتك الخاصة تبقى محصورة في حاسوبك” و”أنت دائما تتحكم في الخصوصية التي يمكنك الوثوق بها”.

محمي بخدمة reCAPTCHA

ومع ذلك، يقول ستيف إلكوك، الرئيس التنفيذي والمؤسس لشركة إليمنت سويت للبرمجيات، “لا يبدو أن هناك وقتا طويلا قبل أن نتمكن من استخدام هذه التكنولوجيا لمراقبة الموظفين”.

الثقة هي أساس أماكن العمل الحديثة

من جهته، يشدد مايكل بوش، الرئيس التنفيذي لشركة “غريت بليس تو وورك” وهي هيئة عالمية مختصة بثقافة العمل، على الدور المحوري الذي يلعبه الذكاء الاصطناعي في ربط الموظفين والمنظمات معا. ويقول إن الثقة أكبر من كونها مفهوما مجردا، فهي ضرورية لبيئة يشعر فيها الجميع بالتقدير والاستماع.

ويضيف بوش: “إذا كان بإمكاني خلق خلفية للعالم في الوقت الحالي، سأكتب كلمة الثقة بأكبر حجم ممكن. هذا هو محور النقاش حول الذكاء الاصطناعي وديناميكيات مكان العمل. يجب على الموظفين أن يفهموا كيف يؤثر الذكاء الاصطناعي على سير عملهم ليتمكنوا من تبني إمكانياته بالكامل، ويجب أن تمتد ثقافة الثقة هذه إلى بناء الموثوقية في أنظمة الذكاء الاصطناعي”.

وحسب المصدر، عندما يثق الموظفون في النية الكامنة وراء الذكاء الاصطناعي، فإنهم يكونون أكثر احتمالا لتبنيه والتعاون معه. يمكن أن تجعل التغييرات الناس يخافون من المجهول، لكنهم لن يهلعوا بشأن أمان وظائفهم وأمنهم المالي إذا كانت قاعدة الثقة موجودة بالفعل. وبدلا من ذلك، سيرغبون في معرفة المزيد.

اعتبارات هامة للحفاظ على خصوصية الموظفين

رغم أن تقنيات الذكاء الاصطناعي أصبحت شائعة في أماكن العمل، فإنها تثير مخاوف تتعلق بالخصوصية عند مشاركة معلومات حساسة. ومن المهم حماية هذه المعلومات، لأن هذه الأنظمة تتعلم من البيانات التي تتلقاها. وهنا سنذكر أهم اعتبارات رئيسية يجب على أصحاب العمل مراعاتها لتحقيق التوازن بين الذكاء الاصطناعي وخصوصية الموظفين:

تدابير أمن البيانات

تعتبر تدابير أمان البيانات من الاعتبارات الأساسية عند تنفيذ الذكاء الاصطناعي في مكان العمل، إذ تجب حماية معلومات الموظفين وخاصة البيانات الحساسة. كما ينبغي لأصحاب العمل التأكد من أن أنظمة الذكاء الاصطناعي تحتوي على تدابير أمان قوية، ويتضمن ذلك تشفير البيانات وضوابط الوصول والتدقيقات الأمنية الدورية.

الشفافية

تعتبر الشفافية أساسية في معالجة مخاوف الموظفين المتعلقة بتكنولوجيا الذكاء الاصطناعي، فيجب على أصحاب العمل أن يكونوا منفتحين وشفافين بشأن كيفية استخدام الذكاء الاصطناعي داخل المنظمة وما البيانات التي يتم جمعها وتخزينها. ومن شأن التواصل الشفاف أن يبني الثقة ويساعد الموظفين على فهم هدف استخدام الذكاء الاصطناعي، مما يقلل من مخاوف الخصوصية.

الحد من البيانات

لتقليل مخاطر الخصوصية، يجب على أصحاب العمل اتباع مبدأ الحد من جمع البيانات وجمع فقط البيانات الضرورية لمهام ووظائف الذكاء الاصطناعي. وتجنب جمع معلومات كثيرة لا تتعلق بشكل مباشر بغرض الذكاء الاصطناعي.

إن جمع البيانات غير الضرورية يفرض مخاطر الخصوصية ويزيد من تعقيد إدارة البيانات. ويمكن لأصحاب العمل الحد من نقاط الضعف المحتملة للخصوصية من خلال الحد من جمع البيانات إلى ما هو مطلوب بدقة.

التدريب والإرشادات

لضمان تفاعل الموظفين مع أنظمة الذكاء الاصطناعي بأمان ومسؤولية، يجب على أصحاب العمل توفير التدريب الكافي ووضع إرشادات واضحة لاستخدام منصات الذكاء الاصطناعي. ويشمل ذلك تثقيف الموظفين حول أفضل الممارسات لإدخال البيانات والتفاعل معها.

إخفاء هوية البيانات

يمكن أن يضيف إخفاء هوية بيانات الموظفين طبقة إضافية من حماية الخصوصية. ويتضمن إخفاء الهوية إزالة المعلومات الشخصية القابلة للتحديد من مجموعات البيانات التي يستخدمها الذكاء الاصطناعي، مما يجعل من المستحيل تحديد هوية الموظفين الأفراد.

التعريف المستعار

التعريف المستعار أو تشفير هوية البيانات يعني استبدال المعلومات الشخصية القابلة للتحديد بأسماء مستعارة، مما يضمن بقاء البيانات مفيدة للذكاء الاصطناعي من دون تحديد هوية الأفراد بشكل مباشر. يمكن أن تساعد هذه التقنيات في تحقيق التوازن بين فائدة البيانات للذكاء الاصطناعي وحماية الخصوصية.

تقييمات تأثير الخصوصية المنتظمة

يجب على أصحاب العمل إجراء تقييمات منتظمة لتأثير الخصوصية لتقييم تأثير الذكاء الاصطناعي على خصوصية الموظفين. وتتضمن تقييمات تأثير الخصوصية تحديد وتقييم المخاطر المحتملة المرتبطة بأنظمة الذكاء الاصطناعي وأنشطة معالجة البيانات الخاصة بها.

:شارك الخبر