أعلن جو بايدن يوم الجمعة أن كبار اللاعبين في تطوير الذكاء الاصطناعي ، بما في ذلك Amazon و Google و Meta و Microsoft و OpenAI ، وافقوا على إجراءات وقائية جديدة للتكنولوجيا سريعة الحركة.
من بين الإرشادات التي توسطت فيها إدارة بايدن العلامات المائية لمحتوى الذكاء الاصطناعي لتسهيل تحديد واختبار الطرف الثالث للتكنولوجيا التي ستحاول اكتشاف العيوب الخطيرة.
متعلق ب: كاتب سيرة أوبنهايمر يدعم مشروع قانون الولايات المتحدة لحظر استخدام الذكاء الاصطناعي في عمليات الإطلاق النووية
وفي حديثه في البيت الأبيض ، قال بايدن إن التزام الشركات كان “حقيقيًا وملموسًا” وسيساعد في “تطوير تقنيات آمنة وجديرة بالثقة” تفيد المجتمع وتدعم القيم.
وقال: “إن الأمريكيين يرون كيف أن الذكاء الاصطناعي المتقدم ووتيرة الابتكار لديهم القدرة على تعطيل الوظائف في الصناعات”. “هذه الالتزامات هي خطوة واعدة لدينا الكثير من العمل للقيام به معا.”
قال الرئيس إن الذكاء الاصطناعي يجلب “فرصًا لا تصدق” ، فضلاً عن المخاطر التي يتعرض لها المجتمع والاقتصاد. وقال إن الاتفاق سيؤكد ثلاثة مبادئ أساسية – السلامة والأمن والثقة.
قال البيت الأبيض إن سبع شركات أمريكية وافقت على الالتزامات الطوعية ، والتي تهدف إلى ضمان سلامة منتجات الذكاء الاصطناعي الخاصة بها قبل إطلاقها.
يأتي هذا الإعلان في الوقت الذي يتهم فيه النقاد بأن التوسع السريع لمنظمة العفو الدولية يهدد بالسماح بحدوث ضرر حقيقي قبل أن تلحق القوانين به. الالتزامات الطوعية ليست ملزمة قانونًا ، ولكنها قد تخلق فجوة أثناء تطوير إجراءات أكثر شمولاً.
أدى اندفاع الاستثمار التجاري في أدوات الذكاء الاصطناعي التوليدية التي يمكنها كتابة نص مقنع يشبه الإنسان وإخراج صور جديدة ووسائل إعلام أخرى إلى إثارة الانبهار العام وكذلك القلق بشأن قدرتها على خداع الأشخاص ونشر المعلومات المضللة ، من بين مخاطر أخرى.
وافقت شركات التكنولوجيا على ثمانية إجراءات:
-
استخدام العلامات المائية على المحتوى الصوتي والمرئي للمساعدة في تحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
-
السماح للخبراء المستقلين بمحاولة دفع النماذج إلى السلوك السيئ – وهي عملية تُعرف باسم “الفريق الأحمر”.
-
تبادل معلومات الثقة والأمان مع الحكومة والشركات الأخرى.
-
الاستثمار في تدابير الأمن السيبراني.
-
تشجيع الأطراف الثالثة على الكشف عن الثغرات الأمنية.
-
الإبلاغ عن المخاطر المجتمعية مثل الاستخدامات غير المناسبة والتحيز.
-
تحديد أولويات البحث حول المخاطر المجتمعية للذكاء الاصطناعي.
-
استخدام أحدث أنظمة الذكاء الاصطناعي ، والمعروفة باسم النماذج الحدودية ، لحل مشاكل المجتمع الكبرى.
تهدف الالتزامات الطوعية إلى أن تكون وسيلة فورية لمعالجة المخاطر قبل دفعة طويلة الأجل لحمل الكونجرس على إصدار قوانين تنظم التكنولوجيا.
قال بعض المدافعين عن لوائح الذكاء الاصطناعي إن خطوة بايدن هي بداية ولكن هناك المزيد الذي يتعين القيام به لمحاسبة الشركات ومنتجاتها.
قال بيان صادر عن جيمس ستاير ، المؤسس والرئيس التنفيذي لمنظمة Common Sense Media غير الربحية: “يشير التاريخ إلى أن العديد من شركات التكنولوجيا لا تسير في الواقع على تعهد طوعي بالتصرف بمسؤولية ودعم اللوائح القوية”.
جادل بعض النقاد بأن المبادئ التوجيهية ، كما هو مفصل على مستوى عالٍ في ورقة حقائق أصدرها البيت الأبيض ، لا تذهب بعيدًا بما فيه الكفاية في معالجة المخاوف بشأن الطريقة التي يمكن أن يؤثر بها الذكاء الاصطناعي على المجتمع وتعطي الإدارة القليل من سبل الإنفاذ أو لا تقدم أي تعويضات لإنفاذها إذا لم تلتزم الشركات بها. قال أمبا كاك ، المدير التنفيذي لمجموعة الأبحاث معهد AI Now: “نحن بحاجة إلى مداولات عامة واسعة النطاق ، وهذا سوف يثير قضايا لن تلتزم بها الشركات طواعية على الأرجح لأنها ستؤدي إلى نتائج مختلفة جوهريًا ، تلك التي قد تؤثر بشكل مباشر على نماذج أعمالها”.
قال كاك: “لا يكفي إجراء مداولات مغلقة مع الجهات الفاعلة في الشركات ، مما يؤدي إلى ضمانات طوعية”. “ما تغطيه هذه القائمة هو مجموعة من المشكلات المريحة للعمل كالمعتاد ، لكننا نحتاج أيضًا إلى النظر في ما هو غير موجود في القائمة – أشياء مثل مخاوف المنافسة ، والتأثيرات التمييزية لهذه الأنظمة. قالت الشركات إنها ستجري “بحثًا” حول الخصوصية والتحيز ، لكن لدينا بالفعل هيئات بحثية قوية حول كليهما – ما نحتاجه هو المساءلة “.
قالت كايتريونا فيتزجيرالد ، نائبة مدير مجموعة الأبحاث غير الهادفة للربح ، مركز معلومات الخصوصية الإلكترونية (Epic) ، إن المبادئ التوجيهية الطوعية لا تزيد قليلاً عن التنظيم الذاتي. قالت إنه تم اتباع نهج مماثل مع منصات التواصل الاجتماعي ، لكنه لم ينجح. “إنه فحص داخلي للامتثال وهو مشابه لما رأيناه في أوامر موافقة لجنة التجارة الفيدرالية (FTC) من الماضي عندما طلبوا من Facebook إجراء تقييمات داخلية لتأثير الخصوصية وأصبحوا مجرد عملية تدقيق.”
قال زعيم الأغلبية في مجلس الشيوخ ، تشاك شومر ، إنه سيقدم تشريعًا لتنظيم الذكاء الاصطناعي. وقد عقد عددًا من الجلسات الإعلامية مع المسؤولين الحكوميين لتثقيف أعضاء مجلس الشيوخ حول قضية جذبت اهتمام الحزبين.
دعا عدد من المسؤولين التنفيذيين في مجال التكنولوجيا إلى التنظيم ، وذهب العديد منهم إلى البيت الأبيض في مايو للتحدث مع بايدن ونائبة الرئيس كامالا هاريس ومسؤولين آخرين.
قال السناتور مارك وارنر إن المبادئ التوجيهية التي صدرت يوم الجمعة هي بداية لكننا “نحتاج إلى أكثر من التزامات الصناعة”.
قال وارنر في بيان: “بينما كثيرًا ما نسمع بائعي الذكاء الاصطناعي يتحدثون عن التزامهم بالأمن والسلامة ، فقد رأينا مرارًا وتكرارًا الإصدار السريع للمنتجات القابلة للاستغلال والمعرضة لتوليد مخرجات غير موثوقة وعرضة لسوء الاستخدام”.
لكن بعض الخبراء والمنافسين المبتدئين قلقون من أن نوع التنظيم الذي يتم طرحه يمكن أن يكون نعمة لأصحاب الجيوب الأولى بقيادة أوبن إيه آي وجوجل ومايكروسوفت ، حيث يتفوق اللاعبون الصغار بسبب التكلفة العالية لجعل أنظمة الذكاء الاصطناعي الخاصة بهم المعروفة باسم نماذج اللغة الكبيرة تلتزم بالقيود التنظيمية.
قالت مجموعة تجارة البرمجيات BSA ، التي تضم مايكروسوفت كعضو ، يوم الجمعة إنها ترحب بجهود إدارة بايدن لوضع قواعد لأنظمة الذكاء الاصطناعي عالية المخاطر.
وقالت المجموعة في بيان: “تتطلع شركات برمجيات المؤسسات إلى العمل مع الإدارة والكونغرس لسن تشريعات تعالج المخاطر المرتبطة بالذكاء الاصطناعي وتعزز فوائده”.
كانت العديد من الدول تبحث في طرق لتنظيم الذكاء الاصطناعي ، بما في ذلك مشرعو الاتحاد الأوروبي الذين تفاوضوا على قواعد شاملة للذكاء الاصطناعي للكتلة المكونة من 27 دولة.
لا تزال تفاصيل التشريع الأوروبي قيد التفصيل ، لكن قانون الاتحاد الأوروبي للذكاء الاصطناعي يحتوي على لوائح صارمة من شأنها أن تخلق حماية كبيرة للمستهلك ضد تجاوزات وانتهاكات الخصوصية والتحيزات لأنواع معينة من نماذج الذكاء الاصطناعي عالية الخطورة.
في غضون ذلك ، لا تزال المحادثات في الولايات المتحدة في مراحلها الأولى. قالت فيتزجيرالد ، من Epic ، في حين أن المبادئ التوجيهية الطوعية ليست سوى واحدة من سلسلة من المبادئ التوجيهية التي أصدرها البيت الأبيض بشأن الذكاء الاصطناعي ، إلا أنها تخشى أن يتسبب ذلك في إبطاء الكونجرس من مساعيه لوضع اللوائح. قالت: “نحن بحاجة إلى قواعد الطريق قبل أن تصبح أكبر من أن تنظم”.
قال الأمين العام للأمم المتحدة ، أنطونيو غوتيريش ، مؤخرًا إن الأمم المتحدة هي “المكان المثالي” لاعتماد المعايير العالمية ، وعين مجلسًا يقدم تقريرًا عن خيارات حوكمة الذكاء الاصطناعي العالمية بحلول نهاية العام.
كما قال الأمين العام للأمم المتحدة إنه يرحب بدعوات بعض الدول لإنشاء هيئة جديدة تابعة للأمم المتحدة لدعم الجهود العالمية لإدارة الذكاء الاصطناعي ، مستوحاة من نماذج مثل الوكالة الدولية للطاقة الذرية أو الهيئة الحكومية الدولية المعنية بتغير المناخ.
وقال البيت الأبيض يوم الجمعة إنه تشاور بالفعل بشأن الالتزامات الطوعية مع عدد من الدول.
ساهمت وكالة أسوشيتد برس في هذه القصة
اترك ردك