اقتصاد

أشياء يجب معرفتها حول قمة سلامة الذكاء الاصطناعي في سيول

سيول، كوريا الجنوبية (أ ف ب) – تستضيف كوريا الجنوبية قمة مصغرة حول مخاطر وتنظيم الذكاء الاصطناعي هذا الأسبوع، في متابعة لمؤتمر قمة مصغر حول مخاطر وتنظيم الذكاء الاصطناعي. سلامة الذكاء الاصطناعي الافتتاحية لقاء العام الماضي في بريطانيا، والذي استقطب جمهورًا متنوعًا من نجوم التكنولوجيا والباحثين والمسؤولين.

ويهدف الاجتماع في سيئول إلى البناء على العمل الذي بدأ في الاجتماع في بريطانيا بشأن الحد من التهديدات التي تشكلها أنظمة الذكاء الاصطناعي المتقدمة.

إليك ما تحتاج إلى معرفته حول قمة الذكاء الاصطناعي في سيول وقضايا أمن الذكاء الاصطناعي.

ما هي الجهود الدولية المبذولة في مجال أمن الذكاء الاصطناعي؟

تعد قمة سيول واحدة من العديد من الجهود العالمية لإنشاء حواجز ضد التكنولوجيا سريعة التقدم والتي تعد بتحويل العديد من جوانب المجتمع ولكنها أثارت أيضًا مخاوف بشأن مخاطر جديدة على الحياة اليومية، مثل التحيزات الخوارزمية التي تشوه نتائج البحث والتهديدات الوجودية المحتملة . إلى الإنسانية.

في القمة البريطانية في نوفمبر/تشرين الثاني، التي عقدت في قاعدة سرية سابقة لتحليل الشفرات في بليتشلي، شمال لندن، اجتمع الباحثون والقادة الحكوميون والمسؤولون التنفيذيون في مجال التكنولوجيا وأعضاء مجموعات المجتمع المدني، والعديد منهم لديهم وجهات نظر متعارضة بشأن الذكاء الاصطناعي، في مناقشات مغلقة. اختلط الرئيس التنفيذي لشركة Tesla Elon Musk والرئيس التنفيذي لشركة OpenAI Sam Altman مع سياسيين مثل رئيس الوزراء البريطاني ريشي سوناك.

ووقع مندوبون من أكثر من عشرين دولة، بما في ذلك الولايات المتحدة والصين، على إعلان بلتشلي، واتفقوا على العمل معا لاحتواء المخاطر “الكارثية” المحتملة التي يفرضها التقدم السريع في مجال الذكاء الاصطناعي.

في مارس، الجمعية العامة للأمم المتحدة اعتمدت قرارها الأول بشأن الذكاء الاصطناعي، والذي يدعم الجهود الدولية لضمان أن التكنولوجيا الجديدة القوية تعود بالنفع على جميع البلدان، وتحترم حقوق الإنسان، وتكون “آمنة ومأمونة وموثوقة”.

مسبقا في هذا الشهر، الولايات المتحدة والصين عقدوا أول محادثات رفيعة المستوى حول الذكاء الاصطناعي في جنيف لمناقشة كيفية معالجة المخاطر التي تشكلها التكنولوجيا سريعة التطور ووضع معايير مشتركة لإدارتها. وأعرب المسؤولون الأمريكيون عن قلقهم إزاء هذا الأمر الصين “تسيء استخدام الذكاء الاصطناعي” في حين انتقد الممثلون الصينيون الولايات المتحدة بسبب “القيود والضغوط” على الذكاء الاصطناعي، حسبما قالت حكوماتهم.

ما الذي تمت مناقشته في قمة سيول؟

ويعقد الاجتماع في الفترة من 21 إلى 22 مايو في استضافة مشتركة من قبل حكومتي كوريا الجنوبية وبريطانيا العظمى.

وفي اليوم الأول، الثلاثاء، تحدث الرئيس الكوري الجنوبي يون سوك يول مذبح لقاء القادة افتراضياً. من المتوقع أن تقدم شركات الذكاء الاصطناعي الرائدة تحديثات حول كيفية تنفيذها للالتزامات التي تعهدت بها في قمة بلتشلي لضمان أمان نماذج الذكاء الاصطناعي الخاصة بها.

وفي اليوم الثاني، سيجتمع الوزراء الرقميون في اجتماع شخصي يستضيفه وزير العلوم الكوري الجنوبي لي جونغ هو ووزيرة التكنولوجيا البريطانية ميشيل دونيلان. وتؤكد المواضيع كيف توسع التركيز إلى ما هو أبعد من المخاطر الشديدة التي ركزت عليها قمة بلتشلي. وسيتبادل المشاركون أفضل الممارسات وخطط العمل الملموسة. وقال المنظمون إنهم سيتبادلون أيضًا الأفكار حول كيفية حماية المجتمع من الآثار السلبية المحتملة للذكاء الاصطناعي في مجالات مثل استهلاك الطاقة والعمال وانتشار المعلومات الخاطئة والمضللة.

يُطلق على الاجتماع اسم قمة مصغرة افتراضية وسيكون بمثابة اجتماع مؤقت لنسخة شخصية كاملة وعدت فرنسا بعقدها.

وسيضم اجتماع الوزراء الرقميين ممثلين من دول مثل الولايات المتحدة والصين وألمانيا وفرنسا وإسبانيا وشركات مثل صانع ChatGPT OpenAI وGoogle وMicrosoft وAnthropic.

ما هو التقدم الذي أحرزته الجهود الأمنية للذكاء الاصطناعي؟

احتوى الاتفاق الذي تم التوصل إليه في الاجتماع البريطاني على تفاصيل قليلة ولم يقترح طريقة لتنظيم تطوير الذكاء الاصطناعي.

وجاءت الولايات المتحدة والصين إلى القمة الأخيرة. وقال لي سيونج يوب، الأستاذ في كلية الدراسات العليا الكورية لإدارة التكنولوجيا في جامعة سيول: “لكن إذا نظرنا إلى بعض المبادئ التي تم الإعلان عنها بعد الاجتماع، فإنها تشبه ما تم الإعلان عنه بالفعل بعد بعض اجتماعات الأمم المتحدة ومنظمة التعاون الاقتصادي والتنمية”. . “لم يكن هناك شيء جديد.”

وقال إنه من المهم عقد قمة عالمية حول قضايا أمن الذكاء الاصطناعي، ولكن سيكون من “الصعب للغاية” على جميع المشاركين التوصل إلى اتفاق، لأن كل دولة لديها مصالح مختلفة ومستويات مختلفة من تقنيات وصناعات الذكاء الاصطناعي المحلية.

وبينما تدرس الحكومات والوكالات العالمية كيفية تنظيم الذكاء الاصطناعي لأنه يصبح أفضل في أداء المهام التي يؤديها البشر، فإن مطوري أقوى أنظمة الذكاء الاصطناعي يوحدون قواهم لتحديد نهجهم المشترك لوضع معايير سلامة الذكاء الاصطناعي. أعلنت الشركة الأم لفيسبوك Meta Platforms وأمازون يوم الاثنين عن انضمامهما إلى منتدى Frontier Model Forum، وهي مجموعة تأسست العام الماضي بواسطة Anthropic وGoogle وMicrosoft وOpenAI.

لجنة الخبراء تقرير مؤقت حول حالة سلامة الذكاء الاصطناعي، والذي صدر يوم الجمعة لإثراء المناقشات في سيول، حدد مجموعة من المخاطر الناجمة عن الذكاء الاصطناعي للأغراض العامة، بما في ذلك استخدامه الضار لزيادة “حجم وتعقيد” الاحتيال والاحتيال، أو انتشار المعلومات المضللة المروجة، أو إنشاء أسلحة بيولوجية جديدة.

وقال التقرير إن أنظمة الذكاء الاصطناعي المعطلة يمكن أن تنشر التحيزات في مجالات مثل الرعاية الصحية وتوظيف الوظائف والإقراض المالي، في حين أن قدرة التكنولوجيا على أتمتة مجموعة من المهام تشكل أيضًا مخاطر نظامية على سوق العمل.

وتأمل كوريا الجنوبية في استغلال قمة سيول لأخذ زمام المبادرة في صياغة الحوكمة العالمية ومعايير الذكاء الاصطناعي. لكن بعض النقاد يقولون إن البلاد تفتقر إلى بنية تحتية للذكاء الاصطناعي متقدمة بما يكفي للقيام بدور قيادي في مثل هذه القضايا المتعلقة بالحوكمة.

__

أفاد تشان من لندن. ساهم مات أوبراين، كاتب تكنولوجيا AP، من بروفيدنس، رود آيلاند.



Source link

مقالات ذات صلة

زر الذهاب إلى الأعلى