تقول OpenAI إن الذكاء الاصطناعي “آمن بدرجة كافية” لأن الفضائح تثير المخاوف

دافع سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن تقنية الذكاء الاصطناعي الخاصة بشركته باعتبارها آمنة للاستخدام على نطاق واسع، مع تزايد المخاوف بشأن المخاطر المحتملة ونقص الضمانات المناسبة لأنظمة الذكاء الاصطناعي على غرار ChatGPT.

جاءت تصريحات ألتمان في حدث لشركة Microsoft في سياتل، حيث تحدث إلى المطورين في الوقت الذي اندلع فيه جدل جديد حول صوت OpenAI AI الذي يشبه إلى حد كبير صوت الممثلة سكارليت جوهانسون.

الرئيس التنفيذي، الذي صعد إلى الصدارة العالمية بعد أن أصدرت OpenAI ChatGPT في عام 2022، يواجه أيضًا أسئلة حول سلامة الذكاء الاصطناعي للشركة بعد مغادرة الفريق المسؤول عن التخفيف من مخاطر الذكاء الاصطناعي طويلة المدى.

وقال ألتمان لجمهور المطورين الذين يسعون إلى بناء منتجات جديدة باستخدام تقنية OpenAI: “إن أكبر نصيحتي هي أن هذا وقت خاص واستفد منه”.

وأضاف: “هذا ليس الوقت المناسب لتأخير ما تخطط للقيام به أو انتظار الشيء التالي”.

تعد OpenAI شريكًا وثيقًا لشركة Microsoft وتوفر التكنولوجيا الأساسية، وفي المقام الأول نموذج اللغة الكبير GPT-4، لبناء أدوات الذكاء الاصطناعي.

لقد قفزت مايكروسوفت إلى عربة الذكاء الاصطناعي، حيث طرحت منتجات جديدة وحثت المستخدمين على تبني قدرات الذكاء الاصطناعي التوليدية.

وقال ألتمان: “نحن نعتبر أمرًا مفروغًا منه” أن GPT-4، على الرغم من كونه “بعيدًا عن الكمال… إلا أنه يعتبر بشكل عام قويًا بدرجة كافية وآمنًا بدرجة كافية لمجموعة واسعة من الاستخدامات”.

وأصر ألتمان على أن شركة OpenAI بذلت “قدرًا كبيرًا من العمل” لضمان سلامة نماذجها.

وأضاف: “عندما تتناول دواءً ما، فأنت تريد أن تعرف ما سيكون آمنًا، ومع نموذجنا، تريد أن تعرف أنه سيكون من القوي التصرف بالطريقة التي تريدها”.

ومع ذلك، عادت الأسئلة حول التزام OpenAI بالسلامة إلى الظهور الأسبوع الماضي عندما قامت الشركة بحل مجموعة “superalignment” الخاصة بها، وهو فريق مخصص للتخفيف من مخاطر الذكاء الاصطناعي على المدى الطويل.

في إعلانه عن رحيله، انتقد القائد المشارك للفريق جان ليك شركة OpenAI لإعطاء الأولوية “للمنتجات الجديدة اللامعة” على السلامة في سلسلة من المنشورات على X (تويتر سابقًا).

وقال لايكي: “على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح”.

“من الصعب جدًا حل هذه المشكلات بشكل صحيح، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك.”

وسرعان ما أعقب هذا الجدل بيان عام من جوهانسون، الذي أعرب عن غضبه من الصوت الذي استخدمته ChatGPT من OpenAI والذي بدا مشابهًا لصوتها في فيلم “Her” عام 2013.

ظهر الصوت المعني، المسمى “Sky”، الأسبوع الماضي في إصدار نموذج GPT-4o الأكثر شبهًا بالإنسان من OpenAI.

وفي بيان قصير يوم الثلاثاء، اعتذر ألتمان لجوهانسون لكنه أصر على أن الصوت لم يكن مقتبسًا من صوتها.

juj-arp/dw

Exit mobile version