كمبريدج ، ماساتشوستس (AP) – يحذر علماء الكمبيوتر الذين ساعدوا في بناء أسس تقنية الذكاء الاصطناعي الحالية من مخاطرها ، لكن هذا لا يعني أنهم يتفقون على ماهية هذه المخاطر أو كيفية منعها.
قال جيفري هينتون ، الأب الروحي لمنظمة العفو الدولية ، في مؤتمر يوم الأربعاء في معهد ماساتشوستس للتكنولوجيا ، إن بقاء البشرية مهدد عندما “يمكن للأشياء الذكية أن تتفوق علينا”.
قال هينتون: “قد يبقينا في الجوار لبعض الوقت للحفاظ على تشغيل محطات الطاقة”. “لكن بعد ذلك ، ربما لا.”
بعد تقاعده من Google حتى يتمكن من التحدث بحرية أكبر ، قال هينتون البالغ من العمر 75 عامًا إنه غير وجهات نظره مؤخرًا حول القدرات المنطقية لأنظمة الكمبيوتر التي قضى حياته في البحث عنها.
قال هينتون ، مخاطبًا الحشد الذي حضر مؤتمر EmTech Digital التابع لـ MIT Technology Review من منزله عبر الفيديو: “هذه الأشياء ستتعلم منا ، من خلال قراءة كل الروايات التي كانت وكل ما كتبه ميكافيللي على الإطلاق ، وكيفية التلاعب بالناس”. “حتى لو لم يتمكنوا من سحب الرافعات بشكل مباشر ، يمكنهم بالتأكيد دفعنا إلى سحب الرافعات.”
وأضاف: “أتمنى لو كان لدي حل بسيط لطيف يمكنني دفعه ، لكنني لا أملك”. “لست متأكدًا من وجود حل.”
قال زميله الرائد في مجال الذكاء الاصطناعي ، يوشوا بنجيو ، الفائز بالمشاركة مع هينتون في جائزة علوم الكمبيوتر الكبرى ، لوكالة أسوشييتد برس يوم الأربعاء إنه “متوافق إلى حد كبير” مع مخاوف هينتون التي أثارتها روبوتات الدردشة مثل ChatGPT والتكنولوجيا ذات الصلة ، لكنه يشعر بالقلق من ذلك ببساطة قول “نحن محكوم علينا” لن يساعد.
قال بينجيو ، الأستاذ في جامعة مونتريال ، “إن الاختلاف الرئيسي ، في رأيي ، هو أنه شخص متشائم نوعاً ما ، وأنا أكثر تفاؤلاً”. “أعتقد أن المخاطر – قصيرة المدى وطويلة الأجل – خطيرة للغاية ويجب أن تؤخذ على محمل الجد ليس فقط من قبل عدد قليل من الباحثين ولكن الحكومات والسكان.”
هناك الكثير من الدلائل على أن الحكومات تستمع. استدعى البيت الأبيض الرؤساء التنفيذيين لـ Google و Microsoft و ChatGPT صانع OpenAI للاجتماع يوم الخميس مع نائب الرئيس كامالا هاريس فيما وصفه المسؤولون بأنه نقاش صريح حول كيفية التخفيف من المخاطر على المدى القريب والبعيد. تقنيتهم. يعمل المشرعون الأوروبيون أيضًا على تسريع المفاوضات لتمرير قواعد جديدة شاملة للذكاء الاصطناعي.
لكن كل الحديث عن أكثر الأخطار المستقبلية خطورة يثير قلق البعض من أن الضجيج حول الآلات الخارقة – التي لم توجد بعد – يصرف الانتباه عن محاولات وضع ضمانات عملية على منتجات الذكاء الاصطناعي الحالية غير المنظمة إلى حد كبير.
قالت مارجريت ميتشل ، القائدة السابقة في فريق أخلاقيات الذكاء الاصطناعي في جوجل ، إنها منزعجة لأن هينتون لم يتحدث خلال عقده في منصب السلطة في جوجل ، خاصة بعد الإطاحة بالعالم الأسود البارز تيمنيت جيبرو في عام 2020 ، الذي درس الأضرار. من نماذج اللغات الكبيرة قبل تسويقها على نطاق واسع في منتجات مثل ChatGPT و Google’s Bard.
قال: “إنه لامتياز أن يقفز من حقائق انتشار التمييز الآن ، ونشر لغة الكراهية ، والسمية ، والمواد الإباحية غير المتوافقة مع النساء ، كل هذه القضايا التي تضر بشكل فعال بالأشخاص المهمشين في مجال التكنولوجيا”. ميتشل ، الذي أُجبر أيضًا على الخروج من Google في أعقاب رحيل جيبرو. “إنه يتخطى كل هذه الأشياء ليقلق بشأن شيء أبعد.”
حصل كل من بنجيو وهينتون والباحث الثالث ، يان ليكون ، الذي يعمل في شركة Meta الأم على Facebook ، على جائزة Turing في عام 2019 لما حققوه من اختراقات في مجال الشبكات العصبية الاصطناعية ، والتي كانت مفيدة في تطوير تطبيقات الذكاء الاصطناعي الحالية مثل ChatGPT.
أعرب بنجيو ، الوحيد من بين الثلاثة الذين لم يعملوا مع عملاق تقني ، عن مخاوفه لسنوات بشأن مخاطر الذكاء الاصطناعي على المدى القريب ، بما في ذلك زعزعة استقرار سوق العمل ، والأسلحة الآلية ومخاطر مجموعات البيانات المتحيزة.
لكن هذه المخاوف نمت مؤخرًا ، مما دفع بنجيو للانضمام إلى علماء الكمبيوتر الآخرين وقادة الأعمال التقنية مثل إيلون موسك والمؤسس المشارك لشركة آبل ستيف وزنياك في الدعوة إلى التوقف لمدة ستة أشهر لتطوير أنظمة الذكاء الاصطناعي الأكثر قوة من أحدث طراز من OpenAI ، GPT-4 .
قال بينجيو يوم الأربعاء إنه يعتقد أن أحدث نماذج لغة الذكاء الاصطناعي اجتازت بالفعل “اختبار تورينج” الذي سمي على اسم طريقة فك الشفرة البريطانية ورائد الذكاء الاصطناعي آلان تورينج التي تم تقديمها في عام 1950 لقياس متى يتعذر تمييز الذكاء الاصطناعي عن الإنسان – على الأقل على السطح.
قال بينجيو: “هذا معلم يمكن أن يكون له عواقب وخيمة إذا لم نكن حذرين”. “شاغلي الرئيسي هو كيف يمكن استغلالها لأغراض شائنة لزعزعة استقرار الديمقراطيات ، أو الهجمات الإلكترونية ، أو المعلومات المضللة. يمكنك إجراء محادثة مع هذه الأنظمة والاعتقاد أنك تتفاعل مع إنسان. من الصعب اكتشافهم “.
من غير المرجح أن يتفق الباحثون على كيفية أن أنظمة لغة الذكاء الاصطناعي الحالية – التي لها العديد من القيود ، بما في ذلك الميل إلى اختلاق المعلومات – ستصبح في الواقع أكثر ذكاءً من البشر ، ليس فقط في حفظ كم هائل من المعلومات ، ولكن في إظهار مهارات تفكير أعمق.
كان Aidan Gomez أحد المؤلفين المشاركين لورقة البحث الرائدة لعام 2017 التي قدمت ما يسمى بتقنية المحولات – “T” في نهاية ChatGPT – لتحسين أداء أنظمة التعلم الآلي ، لا سيما في كيفية التعلم من المقاطع من النص. ثم يتذكر غوميز ، وهو متدرب يبلغ من العمر 20 عامًا فقط في Google ، أنه كان مستلقيًا على أريكة في مقر الشركة في كاليفورنيا عندما أرسل فريقه الورقة في حوالي الساعة الثالثة صباحًا عندما كان موعدها محددًا.
“أيدان ، سيكون هذا ضخمًا للغاية ،” يتذكر زميله أخبره عن العمل الذي ساعد منذ ذلك الحين في الوصول إلى أنظمة جديدة يمكن أن تولد نثرًا وصورًا شبيهة بالبشر.
بعد ست سنوات ، وهو الآن الرئيس التنفيذي لشركة الذكاء الاصطناعي الخاصة به المسماة Cohere ، والتي استثمر فيها هينتون ، غوميز متحمس للتطبيقات المحتملة لهذه الأنظمة ولكنه منزعج من إثارة الخوف التي يقول إنها “منفصلة عن الواقع” لقدراتها الحقيقية و “تعتمد على قفزات غير عادية من الخيال والتفكير “.
قال غوميز: “إن الفكرة القائلة بأن هذه النماذج ستتمكن بطريقة ما من الوصول إلى أسلحتنا النووية وإطلاق حدث ما على مستوى الانقراض ليس خطابًا مثمرًا.” “إنه يضر بجهود السياسة الواقعية الواقعية التي تحاول أن تفعل شيئًا جيدًا.”
عندما سُئل عن استثماراته في Cohere يوم الأربعاء في ضوء مخاوفه الأوسع بشأن الذكاء الاصطناعي ، قال هينتون إنه ليس لديه خطط لسحب استثماراته لأنه لا يزال هناك العديد من التطبيقات المفيدة للنماذج اللغوية في الطب وأماكن أخرى. وقال أيضًا إنه لم يتخذ أي قرارات سيئة في متابعة البحث الذي بدأه في السبعينيات.
قال هينتون: “حتى وقت قريب جدًا ، كنت أعتقد أن هذه الأزمة الوجودية كانت بعيدة المنال”. “لذلك أنا حقًا لا أشعر بأي ندم على ما فعلته.”
اترك ردك