كيف يمكن للذكاء الاصطناعي تدمير البشرية؟

سان فرانسيسكو ـ في الشهر الماضي ، وقع مئات الأشخاص المشهورين في عالم الذكاء الاصطناعي على رسالة مفتوحة تحذر من أن الذكاء الاصطناعي قد يدمر البشرية يومًا ما.

وجاء في البيان المؤلف من جملة واحدة: “التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى ، مثل الأوبئة والحرب النووية”.

كانت الرسالة هي الأحدث في سلسلة من التحذيرات المشؤومة بشأن الذكاء الاصطناعي والتي كانت خفيفة بشكل ملحوظ على التفاصيل. لا يمكن لأنظمة الذكاء الاصطناعي اليوم تدمير البشرية. البعض منهم بالكاد يستطيع الجمع والطرح. فلماذا يشعر الأشخاص الذين يعرفون أكثر عن الذكاء الاصطناعي بالقلق الشديد؟

اشترك في النشرة الإخبارية The Morning من New York Times

السيناريو المخيف.

يقول كاساندراس ، المتخصص في صناعة التكنولوجيا ، إنه في يوم من الأيام ، يمكن للشركات أو الحكومات أو الباحثين المستقلين نشر أنظمة ذكاء اصطناعي قوية للتعامل مع كل شيء من الأعمال إلى الحرب. يمكن لهذه الأنظمة أن تفعل أشياء لا نريدها أن تفعلها. وإذا حاول البشر التدخل أو إغلاقهم ، فيمكنهم مقاومة أو حتى تكرار أنفسهم حتى يتمكنوا من الاستمرار في العمل.

قال يوشوا بينجيو ، الأستاذ وباحث الذكاء الاصطناعي في جامعة مونتريال: “أنظمة اليوم ليست قريبة من تشكيل خطر وجودي”. “لكن في سنة ، سنتين ، خمس سنوات؟ هناك الكثير من عدم اليقين. هذه هي القضية. لسنا متأكدين من أن هذا لن يمر بمرحلة ما حيث تصبح الأمور كارثية “.

غالبًا ما استخدم القلقون استعارة بسيطة. إذا طلبت من آلة أن تصنع أكبر عدد ممكن من المشابك الورقية ، فيقولون لك ، فيمكنها أن تنجرف وتحول كل شيء – بما في ذلك الإنسانية – إلى مصانع مشابك الورق.

كيف يرتبط ذلك بالعالم الحقيقي – أو العالم المتخيل ليس سنوات عديدة في المستقبل؟ يمكن للشركات أن تمنح أنظمة الذكاء الاصطناعي المزيد والمزيد من الاستقلالية وربطها بالبنية التحتية الحيوية ، بما في ذلك شبكات الطاقة وأسواق الأسهم والأسلحة العسكرية. من هناك ، يمكن أن يتسببوا في مشاكل.

بالنسبة للعديد من الخبراء ، لم يكن هذا معقولاً حتى العام الماضي أو نحو ذلك ، عندما أظهرت شركات مثل OpenAI تحسينات كبيرة في تقنيتها. أظهر ذلك ما يمكن أن يكون ممكنًا إذا استمر الذكاء الاصطناعي في التقدم بهذه الوتيرة السريعة.

قال أنتوني أغيري ، عالم الكونيات بجامعة كاليفورنيا ، سانتا كروز ، ومؤسس معهد Future of Life ، المنظمة التي تقف وراء واحد من رسالتين مفتوحتين.

وقال: “في مرحلة ما ، سيصبح من الواضح أن الآلة الكبيرة التي تدير المجتمع والاقتصاد ليست في الحقيقة تحت السيطرة البشرية ، ولا يمكن إيقافها ، أي أكثر من ستاندرد آند بورز 500 يمكن إغلاقها”.

أو هكذا تقول النظرية. يعتقد خبراء آخرون في الذكاء الاصطناعي أنها مقدمة سخيفة.

قال أورين إيتزيوني ، الرئيس التنفيذي المؤسس لمعهد ألين للذكاء الاصطناعي ، وهو مختبر أبحاث في سياتل: “النظرية الافتراضية هي طريقة مهذبة لصياغة ما أفكر به في الحديث عن المخاطر الوجودية”.

هل هناك ما يشير إلى أن الذكاء الاصطناعي يمكنه فعل ذلك؟

ليس تماما. لكن الباحثين يحولون روبوتات المحادثة مثل ChatGPT إلى أنظمة يمكنها اتخاذ إجراءات بناءً على النص الذي تولده. مشروع يسمى AutoGPT هو المثال الرئيسي.

الفكرة هي إعطاء أهداف النظام مثل “إنشاء شركة” أو “كسب بعض المال”. ثم سيواصل البحث عن طرق للوصول إلى هذا الهدف ، خاصةً إذا كان متصلاً بخدمات الإنترنت الأخرى.

يمكن لنظام مثل AutoGPT إنشاء برامج كمبيوتر. إذا منحه الباحثون حق الوصول إلى خادم الكمبيوتر ، فيمكنه بالفعل تشغيل هذه البرامج. من الناحية النظرية ، هذه طريقة لـ AutoGPT للقيام بأي شيء تقريبًا عبر الإنترنت – استرداد المعلومات ، واستخدام التطبيقات ، وإنشاء تطبيقات جديدة ، وحتى تحسين نفسها.

أنظمة مثل AutoGPT لا تعمل بشكل جيد الآن. تميل إلى الوقوع في حلقات لا نهاية لها. أعطى الباحثون نظامًا واحدًا جميع الموارد التي يحتاجها لتكرار نفسه. لم تستطع فعل ذلك.

بمرور الوقت ، يمكن إصلاح هذه القيود.

قال كونور ليهي ، مؤسس شركة Conjecture ، التي تقول إنها تريد مواءمة تقنيات الذكاء الاصطناعي مع القيم الإنسانية: “يحاول الناس بنشاط بناء أنظمة تعمل على تحسين ذاتها”. “حاليًا ، هذا لا يعمل. ولكن في يوم من الأيام ، سوف يحدث ذلك. ولا نعرف متى يحين ذلك اليوم “.

يجادل ليهي بأنه بينما يعطي الباحثون والشركات والمجرمون هذه الأنظمة أهدافًا مثل “كسب بعض المال” ، فقد ينتهي بهم الأمر إلى اقتحام الأنظمة المصرفية ، وإثارة الثورة في بلد يمتلكون فيه عقودًا آجلة للنفط أو يكررون أنفسهم عندما يحاول شخص ما إيقافها.

أين تتعلم أنظمة الذكاء الاصطناعي إساءة التصرف؟

أنظمة الذكاء الاصطناعي مثل ChatGPT مبنية على شبكات عصبية ، وأنظمة رياضية يمكنها تعلم المهارات من خلال تحليل البيانات.

حوالي عام 2018 ، بدأت شركات مثل Google و OpenAI في بناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية المستخرجة من الإنترنت. من خلال تحديد الأنماط في كل هذه البيانات ، تتعلم هذه الأنظمة إنشاء الكتابة بمفردها ، بما في ذلك المقالات الإخبارية والقصائد وبرامج الكمبيوتر وحتى المحادثات الشبيهة بالبشر. النتيجة: روبوتات الدردشة مثل ChatGPT.

نظرًا لأنهم يتعلمون من بيانات أكثر مما يمكن أن يفهمه حتى منشئوهم ، فإن هذا النظام يُظهر أيضًا سلوكًا غير متوقع. أظهر الباحثون مؤخرًا أن نظامًا واحدًا كان قادرًا على توظيف إنسان عبر الإنترنت لهزيمة اختبار Captcha. عندما سأل الإنسان عما إذا كان “روبوتًا” ، كذب النظام وقال إنه شخص يعاني من إعاقة بصرية.

يشعر بعض الخبراء بالقلق من أنه بينما يعمل الباحثون على جعل هذه الأنظمة أكثر قوة ، وتدريبهم على كميات أكبر من البيانات ، يمكن أن يتعلموا المزيد من العادات السيئة.

من هم المسؤولون عن هذه التحذيرات؟

في أوائل العقد الأول من القرن الحادي والعشرين ، بدأ كاتب شاب يُدعى إليعازر يودكوفسكي يحذر من أن الذكاء الاصطناعي يمكن أن يدمر البشرية. ولدت منشوراته على الإنترنت مجتمعًا من المؤمنين. أصبح هذا المجتمع ، الذي يُعرف بالعقلانيين أو المؤثرين الفعالين ، مؤثرًا بشكل كبير في الأوساط الأكاديمية ومراكز الفكر الحكومية وصناعة التكنولوجيا.

لعب Yudkowsky وكتاباته أدوارًا رئيسية في إنشاء كل من OpenAI و DeepMind ، وهو مختبر ذكاء اصطناعي استحوذت عليه Google في عام 2014. وعمل العديد من مجتمع “EAs” داخل هذه المختبرات. لقد اعتقدوا أنهم كانوا في أفضل وضع لبنائه لأنهم أدركوا مخاطر الذكاء الاصطناعي.

ترتبط المنظمتان اللتان أصدرتا مؤخرًا خطابات مفتوحة تحذر من مخاطر الذكاء الاصطناعي – مركز أمان الذكاء الاصطناعي ومعهد مستقبل الحياة – ارتباطًا وثيقًا بهذه الحركة.

جاءت التحذيرات الأخيرة أيضًا من رواد الأبحاث وقادة الصناعة مثل إيلون ماسك ، الذي حذر منذ فترة طويلة من المخاطر. ووقع الخطاب الأخير سام التمان ، الرئيس التنفيذي لشركة أوبن إيه آي. وديميس هاسابيس ، الذي ساعد في تأسيس DeepMind ويشرف الآن على مختبر ذكاء اصطناعي جديد يجمع بين أفضل الباحثين من DeepMind و Google.

ووقعت شخصيات أخرى محترمة على أحد رسالتي التحذير أو كليهما ، بما في ذلك بنجيو وجيفري هينتون ، اللذان استقالا مؤخرًا من منصبه كمدير تنفيذي وباحث في Google. في عام 2018 ، حصلوا على جائزة تورينج ، التي غالبًا ما يطلق عليها “جائزة نوبل للحوسبة” ، لعملهم على الشبكات العصبية.

عام 2023 شركة نيويورك تايمز