كيف تبني أوروبا حواجز حماية للذكاء الاصطناعي

لندن (أ ف ب) – تتسابق السلطات في جميع أنحاء العالم لوضع قواعد للذكاء الاصطناعي ، بما في ذلك في الاتحاد الأوروبي ، حيث تواجه مسودة التشريع لحظة محورية يوم الخميس.

من المقرر أن تصوت لجنة برلمانية أوروبية على القواعد المقترحة ، كجزء من جهود استمرت لسنوات لوضع حواجز حماية للذكاء الاصطناعي. وقد اتخذت هذه الجهود مزيدًا من الإلحاح نظرًا لأن التقدم السريع في ChatGPT يسلط الضوء على الفوائد التي يمكن أن تجلبها التكنولوجيا الناشئة – والمخاطر الجديدة التي تشكلها.

فيما يلي نظرة على قانون الذكاء الاصطناعي للاتحاد الأوروبي:

كيف تعمل القواعد؟

سيحكم قانون الذكاء الاصطناعي ، الذي تم اقتراحه لأول مرة في عام 2021 ، أي منتج أو خدمة تستخدم نظام ذكاء اصطناعي. سيصنف القانون أنظمة الذكاء الاصطناعي وفقًا لأربعة مستويات من المخاطر ، من الحد الأدنى إلى غير المقبول. ستواجه التطبيقات الأكثر خطورة متطلبات أكثر صرامة ، بما في ذلك أن تكون أكثر شفافية واستخدام بيانات دقيقة. قال يوهان لاوكس ، الخبير في معهد أكسفورد للإنترنت ، فكر في الأمر على أنه “نظام إدارة مخاطر للذكاء الاصطناعي”.

ما هي المخاطر؟

أحد الأهداف الرئيسية للاتحاد الأوروبي هو الحماية من أي تهديدات للذكاء الاصطناعي للصحة والسلامة وحماية الحقوق والقيم الأساسية.

وهذا يعني أن بعض استخدامات الذكاء الاصطناعي تعتبر محظورة تمامًا ، مثل أنظمة “التقييم الاجتماعي” التي تحكم على الأشخاص بناءً على سلوكهم أو ألعاب التحدث التفاعلية التي تشجع السلوك الخطير.

من المتوقع أن يتم حظر أدوات الشرطة التنبؤية ، التي تعمل على معالجة البيانات للتنبؤ بمكان وقوع الجرائم ومن سيرتكبها. وكذلك الأمر بالنسبة للتعرف على الوجه عن بُعد ، باستثناء بعض الاستثناءات الضيقة مثل منع تهديد إرهابي معين. تقوم التكنولوجيا بمسح المارة وتستخدم الذكاء الاصطناعي لمطابقة وجوههم بقاعدة بيانات. ومن المقرر أن يقرر تصويت يوم الخميس مدى اتساع الحظر.

قال براندو بينيفي ، النائب الإيطالي الذي يساعد في قيادة جهود الذكاء الاصطناعي في البرلمان الأوروبي ، للصحفيين يوم الأربعاء إن الهدف هو “تجنب مجتمع خاضع للرقابة يعتمد على الذكاء الاصطناعي”. “نعتقد أنه يمكن استخدام هذه التقنيات بدلاً من الخير للشر أيضًا ، ونعتبر أن المخاطر عالية جدًا.”

أنظمة الذكاء الاصطناعي المستخدمة في فئات عالية المخاطر مثل التوظيف والتعليم ، والتي من شأنها أن تؤثر على مسار حياة الشخص ، تواجه متطلبات صعبة مثل الشفافية مع المستخدمين ووضع تدابير لتقييم المخاطر والتخفيف من حدتها.

تقول الذراع التنفيذية للاتحاد الأوروبي إن معظم أنظمة الذكاء الاصطناعي ، مثل ألعاب الفيديو أو عوامل تصفية البريد العشوائي ، تندرج في فئة منخفضة المخاطر أو معدومة.

ماذا عن الدردشة؟

بالكاد ذكر الاقتراح الأصلي المكون من 108 صفحة روبوتات المحادثة ، ما يتطلب فقط تصنيفها حتى يعرف المستخدمون أنهم يتفاعلون مع جهاز. أضاف المفاوضون لاحقًا أحكامًا لتغطية الأغراض العامة للذكاء الاصطناعي مثل ChatGPT ، مما يعرضهم لبعض من نفس المتطلبات مثل الأنظمة عالية المخاطر.

تتمثل إحدى الإضافات الرئيسية في مطلب التوثيق الشامل لأي مواد حقوق نشر مستخدمة لتعليم أنظمة الذكاء الاصطناعي كيفية إنشاء نص أو صور أو فيديو أو موسيقى تشبه العمل البشري. سيسمح ذلك لمنشئي المحتوى بمعرفة ما إذا كانت منشورات المدونات أو الكتب الرقمية أو المقالات العلمية أو أغاني البوب ​​قد تم استخدامها لتدريب الخوارزميات التي تعمل على تشغيل أنظمة مثل ChatGPT. ثم يمكنهم أن يقرروا ما إذا كان قد تم نسخ عملهم ويطلبوا الإنصاف.

لماذا تعتبر قواعد الاتحاد الأوروبي مهمة جدًا؟

لا يعتبر الاتحاد الأوروبي لاعبًا كبيرًا في تطوير الذكاء الاصطناعي المتطور. هذا الدور تقوم به الولايات المتحدة والصين. لكن بروكسل غالبًا ما تلعب دورًا في تحديد الاتجاهات من خلال اللوائح التي تميل إلى أن تصبح معايير عالمية بحكم الواقع.

“الأوروبيون ، على مستوى العالم ، أثرياء إلى حد ما وهناك الكثير منهم” ، لذلك غالبًا ما تقرر الشركات والمؤسسات أن الحجم الهائل للسوق الموحدة للكتلة التي تضم 450 مليون مستهلك يسهل الامتثال بدلاً من تطوير منتجات مختلفة لمناطق مختلفة ، قال.

لكنها ليست مجرد مسألة اتخاذ إجراءات صارمة. قال لاوكس إنه من خلال وضع قواعد مشتركة للذكاء الاصطناعي ، تحاول بروكسل أيضًا تطوير السوق من خلال غرس الثقة بين المستخدمين.

قال لاوكس: “الفكرة الكامنة وراء ذلك هي إذا كان بإمكانك حث الناس على وضع الثقة في الذكاء الاصطناعي والتطبيقات ، فسيستخدمونه أيضًا بشكل أكبر”. “وعندما يستخدمونه أكثر ، سيفتحون الإمكانات الاقتصادية والاجتماعية للذكاء الاصطناعي.”

ماذا لو خالفت القواعد؟

ستؤدي الانتهاكات إلى فرض غرامات تصل إلى 30 مليون يورو (33 مليون دولار) أو 6 ٪ من الإيرادات العالمية السنوية للشركة ، والتي قد تصل في حالة شركات التكنولوجيا مثل Google و Microsoft إلى المليارات.

ماذا بعد؟

قد تمر سنوات قبل أن تصبح القواعد سارية المفعول بالكامل. ويواجه الاقتراح التشريعي الرئيسي تصويت لجنة البرلمان الأوروبي المشتركة يوم الخميس. ينتقل مشروع القانون بعد ذلك إلى مفاوضات ثلاثية تشمل الدول الأعضاء في الكتلة البالغ عددها 27 دولة والبرلمان والمفوضية التنفيذية ، حيث يواجه مزيدًا من الجدل حول التفاصيل. يُتوقع الحصول على الموافقة النهائية بحلول نهاية العام ، أو أوائل عام 2024 على أبعد تقدير ، تليها فترة سماح للشركات والمؤسسات للتكيف ، غالبًا حوالي عامين.

Exit mobile version