يقول الخبراء في تحذير جديد إن الذكاء الاصطناعي يزيد من خطر الانقراض

أصدر العلماء وقادة صناعة التكنولوجيا ، بمن فيهم المسؤولون التنفيذيون رفيعو المستوى في Microsoft و Google ، تحذيرًا جديدًا يوم الثلاثاء حول المخاطر التي يشكلها الذكاء الاصطناعي للبشرية.

وجاء في البيان أن “التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.

كان سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، صانع ChatGPT ، وجيفري هينتون ، عالم الكمبيوتر المعروف باسم الأب الروحي للذكاء الاصطناعي ، من بين مئات الشخصيات البارزة الذين وقعوا البيان ، والذي تم نشره على موقع مركز أمان الذكاء الاصطناعي.

ازدادت المخاوف بشأن تفوق أنظمة الذكاء الاصطناعي على البشر والاندفاع مع ظهور جيل جديد من روبوتات الدردشة ذات القدرات العالية مثل ChatGPT. لقد أرسلت دولًا في جميع أنحاء العالم جاهدة للتوصل إلى لوائح لتطوير التكنولوجيا ، حيث بدأ الاتحاد الأوروبي الطريق مع قانون الذكاء الاصطناعي الذي من المتوقع أن تتم الموافقة عليه في وقت لاحق من هذا العام.

قال دان هندريكس ، المدير التنفيذي للمركز غير الربحي ومقره سان فرانسيسكو ، إن التحذير الأخير كان مقتضبًا عن قصد – جملة واحدة فقط – ليشمل ائتلافًا واسعًا من العلماء الذين قد لا يتفقون على المخاطر المحتملة أو أفضل الحلول لمنعها. لـ AI Safety ، التي نظمت هذه الخطوة.

قال هندريكس: “هناك مجموعة متنوعة من الأشخاص من جميع الجامعات العليا في مختلف المجالات المختلفة ممن يهتمون بهذا الأمر ويعتقدون أن هذه أولوية عالمية”. “لذلك كان علينا أن نجعل الناس يخرجون نوعًا ما من الخزانة ، إذا جاز التعبير ، بشأن هذه المسألة لأن الكثيرين كانوا نوعًا ما يتحدثون بصمت فيما بينهم.”

وقع أكثر من 1000 باحث وتقني ، بما في ذلك Elon Musk ، خطابًا أطول بكثير في وقت سابق من هذا العام يدعو إلى وقف تطوير الذكاء الاصطناعي لمدة ستة أشهر ، قائلين إنه يشكل “مخاطر عميقة على المجتمع والإنسانية”.

كان هذا الخطاب ردًا على إصدار OpenAI لنموذج جديد للذكاء الاصطناعي ، GPT-4 ، لكن القادة في OpenAI وشريكتها Microsoft ومنافستها Google لم يوقعوا الدخول ورفضوا الدعوة إلى وقف طوعي للصناعة.

على النقيض من ذلك ، تم اعتماد البيان الأخير من قبل كبار مسؤولي التكنولوجيا والعلوم في Microsoft ، وكذلك ديميس هاسابيس ، الرئيس التنفيذي لمختبر أبحاث الذكاء الاصطناعي في Google DeepMind ، واثنين من المديرين التنفيذيين في Google الذين يقودون جهود سياسة الذكاء الاصطناعي. لا يقترح البيان علاجات محددة لكن البعض ، بما في ذلك ألتمان ، اقترح منظمًا دوليًا على غرار الوكالة النووية التابعة للأمم المتحدة.

اشتكى بعض النقاد من أن التحذيرات الرهيبة بشأن المخاطر الوجودية التي عبر عنها صانعو الذكاء الاصطناعي ساهمت في تضخيم قدرات منتجاتهم وصرف الانتباه عن الدعوات إلى المزيد من اللوائح الفورية لكبح جماح مشاكلهم في العالم الحقيقي.

قال Hendrycks إنه لا يوجد سبب يمنع المجتمع من إدارة “الأضرار العاجلة والمستمرة” للمنتجات التي تولد نصوصًا أو صورًا جديدة ، بينما يبدأ أيضًا في معالجة “الكوارث المحتملة التي يمكن أن تكون وشيكة”.

قارنها بالعلماء النوويين في الثلاثينيات من القرن الماضي ، محذرين الناس من توخي الحذر على الرغم من “أننا لم نطور القنبلة بعد.”

قال هندريكس: “لا أحد يقول أن GPT-4 أو ChatGPT اليوم تسبب هذه الأنواع من المخاوف”. “نحن نحاول معالجة هذه المخاطر قبل حدوثها بدلاً من محاولة معالجة الكوارث بعد وقوعها”.

كما وقع الخطاب خبراء في العلوم النووية والأوبئة وتغير المناخ. من بين الموقعين الكاتب بيل ماكيبين ، الذي دق ناقوس الخطر بشأن ظاهرة الاحتباس الحراري في كتابه عام 1989 “نهاية الطبيعة” وحذر من الذكاء الاصطناعي والتقنيات المرافقة قبل عقدين من الزمن في كتاب آخر.

وقال عبر البريد الإلكتروني يوم الثلاثاء “بالنظر إلى فشلنا في الاهتمام بالتحذيرات المبكرة بشأن تغير المناخ قبل 35 عامًا ، أشعر كما لو أنه سيكون من الذكاء التفكير بالفعل في هذا الأمر قبل أن ينتهي الأمر برمته”.

قال أكاديمي ساعد في دفع الرسالة إلى أنه كان يتعرض للسخرية بسبب مخاوفه بشأن المخاطر الوجودية للذكاء الاصطناعي ، حتى مع تجاوز التقدم السريع في أبحاث التعلم الآلي على مدى العقد الماضي توقعات العديد من الناس.

قال ديفيد كروجر ، الأستاذ المساعد في علوم الكمبيوتر بجامعة كامبريدج ، إن بعض التردد في التحدث علانية هو أن العلماء لا يريدون أن يُنظر إليهم على أنهم يقترحون “الوعي أو الذكاء الاصطناعي يفعل شيئًا سحريًا” ، لكنه قال إن أنظمة الذكاء الاصطناعي لا تفعل شيئًا لست بحاجة إلى أن تكون مدركًا لذاتها أو أن تضع أهدافًا خاصة بها لتشكل تهديدًا للبشرية.

أنا لست مرتبطًا بنوع معين من المخاطر. قال كروجر: أعتقد أن هناك الكثير من الطرق المختلفة لتسيء الأمور بشكل سيء. “لكنني أعتقد أن الطريقة الأكثر إثارة للجدل تاريخيًا هي خطر الانقراض ، وتحديداً من خلال أنظمة الذكاء الاصطناعي التي تخرج عن نطاق السيطرة.”

___

أفاد أوبراين من بروفيدنس ، رود آيلاند. ساهم الكاتبان في وكالة AP Business ، فرانك باجاك في بوسطن ، وكلفن تشان في لندن.