أصبح الذكاء الاصطناعي زميلك في العمل. هل يمكنك الوثوق به؟ | تكنولوجيا
أصبح استخدام أدوات الذكاء الاصطناعي مثل ChatGPT من OpenAI وCopilot من Microsoft جزءًا من الحياة التجارية اليومية.
يثير التطور السريع لأدوات الذكاء الاصطناعي مخاوف من أن هذه التكنولوجيا يمكن أن تفتح الباب أمام العديد من قضايا الخصوصية والأمن، خاصة في مكان العمل.
نظرًا لأن قادة الأعمال يشعرون بضغوط متزايدة لتطبيق الذكاء الاصطناعي، فإن بناء الثقة وفهم تأثير الذكاء الاصطناعي على سير عمل الموظفين أمر بالغ الأهمية لتحقيق إمكاناته الكاملة في الأعمال.
خصوصية الموظف في قبضة الذكاء الاصطناعي
وفي شهر مايو الماضي، وصف نشطاء الخصوصية أداة الاستدعاء الجديدة من مايكروسوفت بأنها “كابوس الخصوصية” نظرًا لقدرتها على التقاط لقطات شاشة للكمبيوتر كل بضع ثوانٍ. وقد لفتت هذه الميزة انتباه هيئة تنظيم المعلومات في المملكة المتحدة، والتي تطالب مايكروسوفت بالكشف عن المزيد حول أمان منتج Copilot Plus الذي سيتم إطلاقه قريبًا.
على الصعيد الموازي، تتزايد المخاوف بشأن تطبيق “GPT Chat”، الذي أثبت قدرات التقاط لقطات الشاشة في تطبيقه الجديد المزمع إطلاقه على نظام “macOS”، والذي قد يؤدي، بحسب خبراء الخصوصية، إلى التقاط معلومات حساسة. بيانات.
ومن هذا المنطلق، حظر مجلس النواب الأمريكي استخدام برنامج CoPilot بين الموظفين، بعد أن اعتبره مكتب الأمن السيبراني خطرا على المستخدمين بسبب “التهديد بتسريب البيانات من مجلس النواب إلى الخدمات السحابية غير المصرح بها من قبل المجلس”. موافقة.”
وفي الوقت نفسه، حذرت شركة تحليل السوق Gartner من أن استخدام CoPilot في Microsoft Office 365 يشكل مخاطر تتعلق بتسريب البيانات والمحتوى الحساس، الداخلي والخارجي. وفي الشهر الماضي، اضطرت شركة جوجل إلى إجراء تغييرات على ميزة البحث الجديدة “AI Overviews” بعد انتشار لقطات شاشة لإجابات مشبوهة ومضللة على الأسئلة.
بالنسبة لأولئك الذين يستخدمون الذكاء الاصطناعي التوليدي في العمل، فإن أحد أكبر التحديات هو خطر الكشف عن البيانات الحساسة عن غير قصد.
وفي هذا الصدد، يقول كامدن وولفين، رئيس مجموعة الذكاء الاصطناعي في شركة إدارة المخاطر GRC International Group، إن معظم أنظمة الذكاء الاصطناعي التوليدية هي في الأساس “إسفنجات كبيرة”، تمتص كميات هائلة من المعلومات من الإنترنت لتدريب نماذجها اللغوية.
وتتركز المخاوف حول أدوات الذكاء الاصطناعي التي يمكن استخدامها لمراقبة الموظفين، مما قد ينتهك خصوصيتهم. تنص ميزة Recall من Microsoft على أن “صورك الخاصة تظل مقفلة على جهاز الكمبيوتر الخاص بك” و”يمكنك دائمًا التحكم في الخصوصية التي يمكنك الوثوق بها”.
ومع ذلك، يقول ستيف إلكوك، الرئيس التنفيذي ومؤسس شركة البرمجيات Element Suite: “لا يبدو أنه سيمر وقت طويل قبل أن نتمكن من استخدام هذه التكنولوجيا لمراقبة الموظفين”.
الثقة هي أساس مكان العمل الحديث
يؤكد مايكل بوش، الرئيس التنفيذي لمنظمة Great Place to Work، وهي هيئة عالمية متخصصة في ثقافة العمل، على الدور الحاسم الذي يلعبه الذكاء الاصطناعي في ربط الموظفين والمنظمات. يقول أن الثقة هي أكثر من مجرد مفهوم مجرد. إنه ضروري لبيئة يشعر فيها الجميع بالتقدير والاستماع.
ويضيف بوش: “إذا كان بوسعي أن أخلق خلفية للعالم الآن، فسوف أكتب كلمة الثقة على نطاق واسع قدر الإمكان”. “هذا هو محور النقاش حول الذكاء الاصطناعي وديناميكيات مكان العمل. يحتاج الموظفون إلى فهم كيفية تأثير الذكاء الاصطناعي على سير عملهم حتى يتمكنوا من احتضان قدراته بشكل كامل. ويجب أن تمتد ثقافة الثقة هذه إلى بناء الموثوقية في أنظمة الذكاء الاصطناعي.
وفقًا للمصدر، من المرجح أن يتبني الموظفون ويتعاونون مع الهدف من وراء الذكاء الاصطناعي إذا كانوا يثقون في الهدف من وراء الذكاء الاصطناعي. التغيير يمكن أن يجعل الناس يخافون من المجهول، لكنهم لن يشعروا بالذعر بشأن الأمن الوظيفي والأمن المالي إذا كان أساس الثقة موجودًا بالفعل. وبدلا من ذلك، يريدون معرفة المزيد.
اعتبارات هامة لضمان خصوصية الموظف
على الرغم من أن تقنيات الذكاء الاصطناعي أصبحت شائعة في مكان العمل، إلا أنها تثير مخاوف تتعلق بالخصوصية عند مشاركة المعلومات الحساسة. ومن المهم حماية هذه المعلومات لأن هذه الأنظمة تتعلم من البيانات التي تتلقاها. ونورد هنا الاعتبارات الرئيسية التي يجب على أصحاب العمل مراعاتها لتحقيق التوازن بين الذكاء الاصطناعي وخصوصية الموظفين:
تدابير أمن البيانات
تعتبر تدابير أمن البيانات أحد الاعتبارات المهمة عند تنفيذ الذكاء الاصطناعي في مكان العمل لأنه يجب حماية معلومات الموظف، وخاصة البيانات الحساسة. يجب على أصحاب العمل أيضًا التأكد من أن أنظمة الذكاء الاصطناعي لديها إجراءات أمنية قوية، بما في ذلك تشفير البيانات، وضوابط الوصول، وعمليات التدقيق الأمني الدورية.
الشفافية
تعد الشفافية أمرًا بالغ الأهمية عند معالجة مخاوف الموظفين فيما يتعلق بتكنولوجيا الذكاء الاصطناعي. يجب أن يكون أصحاب العمل منفتحين وشفافين بشأن كيفية استخدام الذكاء الاصطناعي داخل المنظمة وما هي البيانات التي يتم جمعها وتخزينها. التواصل الشفاف يبني الثقة ويساعد الموظفين على فهم الغرض من استخدام الذكاء الاصطناعي، مما يقلل من المخاوف المتعلقة بالخصوصية.
تقييد البيانات
للحد من مخاطر الخصوصية، يجب على أصحاب العمل اتباع مبدأ الحد من جمع البيانات وجمع البيانات اللازمة فقط لمهام ووظائف الذكاء الاصطناعي. تجنب جمع الكثير من المعلومات التي لا تتعلق بشكل مباشر بهدف الذكاء الاصطناعي.
يشكل جمع البيانات غير الضرورية مخاطر على الخصوصية ويزيد من تعقيد إدارة البيانات. يمكن لأصحاب العمل تقليل نقاط الضعف المحتملة في الخصوصية عن طريق قصر جمع البيانات على ما هو ضروري بالضبط.
التدريب والتوجيه
ولضمان قدرة الموظفين على استخدام أنظمة الذكاء الاصطناعي بأمان ومسؤولية، يجب على أصحاب العمل توفير التدريب المناسب ووضع مبادئ توجيهية واضحة لاستخدام منصات الذكاء الاصطناعي. ويتضمن ذلك تدريب الموظفين على أفضل الممارسات لإدخال البيانات ومعالجتها.
إخفاء هوية البيانات
يمكن أن يؤدي إخفاء هوية بيانات الموظف إلى إضافة طبقة إضافية من حماية الخصوصية. يتضمن إخفاء الهوية إزالة معلومات التعريف الشخصية من مجموعات البيانات التي يستخدمها الذكاء الاصطناعي، مما يجعل من المستحيل تحديد الموظفين الأفراد.
تعريف الاسم المستعار
يتضمن استخدام الأسماء المستعارة أو تشفير البيانات استبدال معلومات التعريف الشخصية بأسماء مستعارة، مما يضمن بقاء البيانات مفيدة للذكاء الاصطناعي دون تحديد هوية الأفراد بشكل مباشر. يمكن أن تساعد هذه التقنيات في تحقيق التوازن بين فائدة البيانات للذكاء الاصطناعي وحماية الخصوصية.
تقييمات منتظمة لتأثير الخصوصية
يجب على أصحاب العمل إجراء تقييمات منتظمة لتأثير الخصوصية لتقييم تأثير الذكاء الاصطناعي على خصوصية الموظف. تتضمن تقييمات تأثير الخصوصية تحديد وتقييم المخاطر المحتملة المرتبطة بأنظمة الذكاء الاصطناعي وأنشطة معالجة البيانات الخاصة بها.