يخبر Exec أول اجتماع لمجلس الأمم المتحدة أنه لا يمكن الوثوق بالتكنولوجيا الكبيرة لضمان سلامة الذكاء الاصطناعي

الأمم المتحدة (AP) – لا يمكن الوثوق في حفنة من شركات التكنولوجيا الكبيرة التي تقود السباق نحو تسويق الذكاء الاصطناعي لضمان سلامة الأنظمة التي لم نفهمها بعد والتي تكون عرضة “للسلوك الفوضوي أو غير المتوقع” ، وهو ذكاء اصطناعي قال المدير التنفيذي للشركة في أول اجتماع لمجلس الأمن الدولي بشأن تهديدات الذكاء الاصطناعي للسلام العالمي يوم الثلاثاء.

قال جاك كلارك ، الشريك المؤسس لشركة أنثروبيك للذكاء الاصطناعي ، إن هذا هو سبب وجوب تكاتف العالم لمنع إساءة استخدام التكنولوجيا.

قال كلارك ، الذي قال إن شركته تنحني للخلف لتدريب روبوت محادثة الذكاء الاصطناعي الخاص بها للتأكيد على السلامة والحذر ، قال إن أكثر الأشياء المفيدة التي يمكن القيام بها الآن “هي العمل على تطوير طرق لاختبار القدرات وسوء الاستخدام وعيوب الأمان المحتملة لهذه الأنظمة . ” ترك كلارك شركة OpenAI ، التي ابتكرت أفضل روبوت محادثة ChatGPT ، لتشكيل Anthropic ، الذي يُدعى منتج الذكاء الاصطناعي المنافس الخاص به كلود.

تتبع نمو الذكاء الاصطناعي على مدى العقد الماضي حتى عام 2023 حيث يمكن لأنظمة الذكاء الاصطناعي الجديدة التغلب على الطيارين العسكريين في محاكاة القتال الجوي ، وتثبيت البلازما في مفاعلات الاندماج النووي ، وتصميم مكونات للجيل القادم من أشباه الموصلات ، وفحص البضائع على خطوط الإنتاج.

ولكن في حين أن الذكاء الاصطناعي سيحقق فوائد هائلة ، فإن فهمه للبيولوجيا ، على سبيل المثال ، قد يستخدم أيضًا نظامًا للذكاء الاصطناعي يمكنه إنتاج أسلحة بيولوجية ، على حد قوله.

وحذر كلارك أيضًا من “التهديدات المحتملة للسلام والأمن والاستقرار العالمي” من صفتين أساسيتين لأنظمة الذكاء الاصطناعي – إمكانية إساءة استخدامها وعدم القدرة على التنبؤ بها “بالإضافة إلى الهشاشة المتأصلة في تطويرها من قبل مجموعة ضيقة من الجهات الفاعلة. “

شدد كلارك على أن شركات التكنولوجيا في جميع أنحاء العالم هي التي تمتلك أجهزة كمبيوتر متطورة ومجموعات كبيرة من البيانات ورأس المال لبناء أنظمة الذكاء الاصطناعي ، وبالتالي يبدو من المرجح أن تستمر في تحديد تطورها.

في إحاطة بالفيديو لأقوى هيئة في الأمم المتحدة ، أعرب كلارك أيضًا عن أمله في نجاح العمل العالمي.

وقال إنه متشجع لرؤية العديد من الدول تؤكد على أهمية اختبار وتقييم السلامة في مقترحاتها الخاصة بالذكاء الاصطناعي ، بما في ذلك الاتحاد الأوروبي والصين والولايات المتحدة.

ومع ذلك ، في الوقت الحالي ، لا توجد معايير أو حتى أفضل الممارسات حول “كيفية اختبار هذه الأنظمة الحدودية لأشياء مثل التمييز أو سوء الاستخدام أو السلامة” ، مما يجعل من الصعب على الحكومات وضع السياسات والسماح للقطاع الخاص بالتمتع بميزة المعلومات ، هو قال.

قال كلارك: “إن أي نهج معقول للتنظيم سيبدأ بامتلاك القدرة على تقييم نظام الذكاء الاصطناعي لقدرة أو عيب معين”. “وأي نهج فاشل سيبدأ بأفكار سياسة كبرى لا تدعمها قياسات وتقييمات فعالة.”

وقال إنه من خلال التقييم القوي والموثوق لأنظمة الذكاء الاصطناعي ، “يمكن للحكومات أن تُخضع الشركات للمساءلة ، ويمكن للشركات أن تكسب ثقة العالم الذي تريد نشر أنظمة الذكاء الاصطناعي الخاصة بها فيه”. ولكن إذا لم يكن هناك تقييم قوي ، كما قال ، “فإننا نواجه خطر الاستحواذ التنظيمي على الأمن العالمي وتسليم المستقبل لمجموعة ضيقة من الجهات الفاعلة في القطاع الخاص”.

كما دعا التنفيذيون الآخرون للذكاء الاصطناعي ، مثل الرئيس التنفيذي لشركة OpenAI ، سام التمان ، إلى التنظيم. لكن المتشككين يقولون إن التنظيم يمكن أن يكون نعمة لأصحاب المشاريع الأثرياء بقيادة أوبن إيه آي وجوجل ومايكروسوفت ، حيث يتأثر اللاعبون الأصغر بالتكلفة العالية لجعل نماذجهم اللغوية الكبيرة تلتزم بالقيود التنظيمية.

قال الأمين العام للأمم المتحدة ، أنطونيو غوتيريش ، إن الأمم المتحدة هي “المكان المثالي” لاعتماد معايير عالمية لتعظيم فوائد الذكاء الاصطناعي وتخفيف مخاطره.

وحذر المجلس من أن ظهور الذكاء الاصطناعي التوليدي يمكن أن يكون له عواقب وخيمة للغاية على السلام والأمن الدوليين ، مشيرًا إلى احتمال استخدامه من قبل الإرهابيين والمجرمين والحكومات مما يتسبب في “مستويات مروعة من الموت والدمار ، وصدمات واسعة النطاق ، وأضرار نفسية عميقة على نطاق لا يمكن تصوره “.

كخطوة أولى للجمع بين الدول ، قال جوتيريس إنه يعين مجلسًا استشاريًا رفيع المستوى للذكاء الاصطناعي سيقدم تقريرًا عن خيارات حوكمة الذكاء الاصطناعي العالمية بحلول نهاية العام.

كما قال الأمين العام للأمم المتحدة إنه يرحب بدعوات بعض الدول لإنشاء هيئة جديدة تابعة للأمم المتحدة لدعم الجهود العالمية لإدارة الذكاء الاصطناعي ، “مستوحاة من نماذج مثل الوكالة الدولية للطاقة الذرية ، أو منظمة الطيران المدني الدولية ، أو اللجنة الحكومية الدولية. بشأن تغير المناخ “.

وقال البروفيسور زينج يي ، مدير مختبر الذكاء المعرفي بالأكاديمية الصينية للعلوم ، للمجلس “يجب على الأمم المتحدة أن تلعب دورًا مركزيًا في وضع إطار عمل حول الذكاء الاصطناعي من أجل التنمية والحوكمة لضمان السلام والأمن العالميين”.

اقترح تسنغ ، الذي يشارك أيضًا في إدارة مركز الأبحاث الصيني البريطاني لأخلاقيات وحوكمة الذكاء الاصطناعي ، أن ينظر مجلس الأمن في إنشاء مجموعة عمل للنظر في التحديات قصيرة المدى وطويلة المدى التي يفرضها الذكاء الاصطناعي على السلم والأمن الدوليين.

شدد تسنغ في إيجازه بالفيديو على أن أنظمة الذكاء الاصطناعي التوليدية الحديثة “كلها أدوات لمعالجة المعلومات تبدو ذكية” ولكن ليس لديها فهم حقيقي ، وبالتالي “ليست ذكية حقًا”.

وحذر من أن “الذكاء الاصطناعي يجب ألا يتظاهر أبدًا بأنه بشر” ، وأصر على أن البشر الحقيقيين يجب أن يحافظوا على سيطرتهم خاصة على جميع أنظمة الأسلحة.

قال وزير الخارجية البريطاني جيمس كليفرلي ، الذي ترأس الاجتماع بينما تتولى المملكة المتحدة رئاسة المجلس هذا الشهر ، إن المملكة المتحدة ستجمع هذا الخريف قادة العالم معًا في أول قمة عالمية كبرى حول سلامة الذكاء الاصطناعي.

وقال: “لن تتأثر أي دولة بالذكاء الاصطناعي ، لذلك يجب علينا إشراك وإشراك أوسع تحالف من الجهات الفاعلة الدولية من جميع القطاعات”. “سيكون هدفنا المشترك هو النظر في مخاطر الذكاء الاصطناعي وتحديد كيفية تقليلها من خلال العمل المنسق.”

——

ساهم الكاتب التكنولوجي في وكالة أسوشييتد برس فرانك باجاك في هذا التقرير من بوسطن

Exit mobile version