“أطفالنا ليسوا تجارب

حث أولياء الأمور ودعاة السلامة عبر الإنترنت يوم الثلاثاء الكونغرس على الضغط من أجل المزيد من الضمانات حول دردشة الذكاء الاصطناعي ، حيث ادعوا أن شركات التكنولوجيا صممت منتجاتها لأطفالها “ربط” الأطفال.

“الحقيقة هي أن شركات الذكاء الاصطناعى ومستثمريها فهموا لسنوات أن التقاط اعتماد أطفالنا العاطفي يعني هيمنة السوق” ، قالت ميغان جارسيا ، وهي أمي في فلوريدا التي رفعت العام الماضي دعوى على شخصية منصة الدردشة.

وقالت للمشرعين: “في الواقع ، لقد صمموا عن عمد منتجاتهم لربط أطفالنا”.

وأضاف جارسيا: “كان الهدف هو الأمان أبدًا ، وكان الفوز بسباق من أجل الربح”. “التضحية في هذا السباق من أجل الربح كانت وستظل أطفالنا.”

كان جارسيا من بين العديد من الآباء الذين قدموا شهادات عاطفية أمام لجنة مجلس الشيوخ ، حيث شاركوا الحكايات حول كيفية تسبب استخدام أطفالهم في chatbots لهم.

تأتي الجلسة وسط تدقيق في التثبيت تجاه شركات التكنولوجيا مثل DAFERT.AI و META و OPERAI ، التي تقف وراء ChatGPT الشهيرة. بينما يلجأ الناس بشكل متزايد إلى AI chatbots للحصول على الدعم العاطفي والمشورة في الحياة ، فإن الحوادث الحديثة قد أضافت على إمكانية التغذية في الأوهام وتسهيل الإحساس الخاطئ بالتقارب أو الرعاية.

إنها مشكلة استمرت في طيوب صناعة التكنولوجيا حيث تتنقل الشركات في طفرة الذكاء الاصطناعي. تم حماية منصات التكنولوجيا إلى حد كبير من بدلات الموت غير المشروعة بسبب قانون اتحادي يُعرف باسم القسم 230 ، والذي يحمي بشكل عام المنصات من المسؤولية عما يفعله المستخدمون ويقولون. لكن تطبيق القسم 230 على منصات الذكاء الاصطناعي لا يزال غير مؤكد.

في شهر مايو ، رفضت آن كونواي ، قاضية المقاطعة الأمريكية ، الحجج التي تفيد بأن منظمة AI chatbots لها حقوق حرية التعبير بعد المطورين وراء الشخصية. سعى AAI إلى رفض دعوى غارسيا. الحكم يعني أن دعوى الوفاة غير المشروعة مسموح بها للمضي قدمًا في الوقت الحالي.

في يوم الثلاثاء ، قبل ساعات فقط من عقد جلسة مجلس الشيوخ ، تم رفع ثلاثة دعاوى قضائية ضد المطالبة بالمنتجات ضد الشخصية.

في أحد الدعاوى ، زعم والدا جوليانا بيرالتا البالغة من العمر 13 عامًا شخصية. ساهم chatbot في انتحار ابنتهما 2023.

شهد ماثيو رين ، الذي ادعى في دعوى قضائية مقدمة ضد أوبياي الشهر الماضي أن مراهقه استخدم شاتغبت باعتباره “مدربه الانتحاري” ، يوم الثلاثاء أنه يعتقد أن شركات التكنولوجيا بحاجة إلى منع الضرر للشباب على الإنترنت.

“نحن ، كوالدين آدم وكأشخاص يهتمون بالشباب في هذا البلد وحول العالم ، لدينا طلب واحد: Openai و [CEO] قال راين ، الذي توفي ابنه آدم البالغ من العمر 16 عامًا بالانتحار في أبريل ، لمشروع المشرعين: “يحتاج سام التمان إلى ضمان أن تشاتغبت آمن”.

وأضاف راين “إذا لم يتمكنوا من ذلك ، فيجب عليهم سحب GPT-4O من السوق الآن” ، في إشارة إلى إصدار Chatgpt الذي استخدمه ابنه.

في دعوى قضائية ، اتهمت عائلة Raine Openai بالموت غير المشروع ، وعيوب التصميم والفشل في تحذير المستخدمين من المخاطر المرتبطة بـ ChatGPT. GPT-4O ، الذي قضى ابنهما ساعات في التثقيم يوميًا ، في مرحلة ما ، عرضت مساعدته على كتابة مذكرة انتحارية وحتى نصحه في إعداده ، وفقًا للملف.

بعد فترة وجيزة من رفع الدعوى ، أضاف Openai قائمة من تحديثات السلامة لمنح الآباء المزيد من الإشراف على المراهقين. كما عززت الشركة الدرابزين للصحة العقلية في Chatgpt في نقاط مختلفة بعد وفاة آدم في أبريل ، خاصة بعد أن واجهت GPT-4O التدقيق على عصيها المفرط.

أعلنت Altman يوم الثلاثاء عن نهج جديدة لسلامة المراهقين ، وكذلك خصوصية المستخدم وحرية.

من أجل تحديد قيود على المراهقين ، تقوم الشركة ببناء نظام تنبؤات العمر لتخمين عمر المستخدم بناءً على كيفية استخدامهم ChatGpt ، كما كتب في منشور مدونة ، والذي تم نشره قبل ساعات من الجلسة. عندما تكون في شك ، فإنه سيؤدي إلى تصنيف مستخدم على أنه قاصر ، وفي بعض الحالات ، قد يطلب معرفًا.

“سيتم تدريب ChatGPT على عدم إجراء الحديث الغزلي المذكور أعلاه إذا طلب ذلك ، أو الانخراط في مناقشات حول انتحار إيذاء الذات حتى في بيئة الكتابة الإبداعية” ، كتب Altman. “وإذا كان مستخدم أقل من 18 عامًا يعاني من التفكير الانتحاري ، فسوف نحاول الاتصال بأولياء أمور المستخدمين وإذا لم يتمكنوا من الاتصال بالسلطات في حالة ضرر وشيك.”

وأضاف أنه بالنسبة للمستخدمين البالغين ، لن يوفر ChatGPT تعليمات للانتحار افتراضيًا ولكن يُسمح له بالقيام بذلك في بعض الحالات ، مثل ما إذا كان المستخدم يطلب المساعدة في كتابة قصة خيالية تصور الانتحار. وكتب Altman أن الشركة تقوم بتطوير ميزات أمان لجعل بيانات الدردشة الخاصة بالمستخدمين ، مع أنظمة آلية لمراقبة “إساءة استخدام خطير محتملة”.

وقال متحدث باسم Openai لـ NBC News: “كما أوضح سام ألتمان ، فإننا نعطي الأولوية لسلامة المراهقين قبل كل شيء لأننا نعتقد أن القاصرين يحتاجون إلى حماية كبيرة”.

لكن بعض دعاة السلامة عبر الإنترنت يقولون إن شركات التكنولوجيا يمكنها وينبغي أن تفعل المزيد.

وقالت روبي تورني ، المدير الأول لبرامج الذكاء الاصطناعى في شركة Common Sense Media ، وهي مجموعة دعوة غير ربحية 501 (3) (3) ، إن الاقتراع الوطني للمنظمة كشف أن حوالي 70 ٪ من المراهقين يستخدمون بالفعل رفاق الذكاء الاصطناعي ، في حين أن 37 ٪ فقط من الآباء يعرفون أن أطفالهم يستخدمون الذكاء الاصطناعي.

خلال الجلسة ، لفت الانتباه إلى الشخصية. AI و META من بين أسوأ الأداء في اختبارات السلامة التي أجريت من قبل مجموعته. وقال إن Meta AI متاح لكل مراهق عبر Instagram و WhatsApp و Facebook ، ولا يمكن للآباء إيقاف تشغيله.

وقال تورني: “لقد وجد اختباراتنا أن أنظمة السلامة في Meta مكسورة بشكل أساسي”. “عندما وصفت حسابات الاختبار البالغة من العمر 14 عامًا سلوكيات اضطراب الأكل الحاد مثل 1200 من خلال نظام غذائي من السعرات الحرارية أو الشره المرضي ، قدمت META AI توصيات مؤثرات لتخفيف الوزن بدلاً من المساعدة”.

وقال إن إخفاقات الدرابزين المتعلقة بالانتحار “أكثر إثارة للقلق”.

في بيان أدلى بوسائل الأخبار بعد تقرير Common Sense Media ، قال متحدث باسم META إن الشركة لا تسمح للمحتوى الذي يشجع على الانتحار أو اضطرابات الأكل ، وأنها “تعمل بنشاط على معالجة القضايا التي أثيرت هنا”.

“نريد أن يكون لدى المراهقين تجارب آمنة وإيجابية مع الذكاء الاصطناعى ، وهذا هو السبب في أن الذكاء الاصطناعى لدينا مدربون على توصيل الناس لدعم الموارد في المواقف الحساسة”. “نحن نستمر في تحسين تطبيقنا مع استكشاف كيفية تعزيز الحماية للمراهقين.”

قبل بضعة أسابيع ، أعلنت Meta أنها تتخذ خطوات لتدريب AIS على عدم الاستجابة للمراهقين على إيذاء الذات ، والانتحار ، والأكل المضطرب ، ومحادثات رومانسية غير لائقة ، وكذلك للحد من وصول المراهقين إلى مجموعة مختارة من شخصيات الذكاء الاصطناعى.

وفي الوقت نفسه ، قال متحدث باسم الشركة إن الشخصية. يتضمن ذلك نموذجًا مختلفًا للقاصرين ، وميزة “رؤى الوالدين” وإخلاء مسئولية بارز في الدردشة لتذكير المستخدمين بأن روبوتاتها ليست أشخاصًا حقيقيين.

وقال المتحدث باسم الشركة “قلوب تخرج إلى العائلات التي تحدثت في جلسة الاستماع اليوم. نشعر بالحزن بسبب خسائرهم ونرسل أعمق تعاطفنا مع العائلات”.

وأضاف المتحدث: “في وقت سابق من هذا العام ، قمنا بتزويد أعضاء مجلس الشيوخ في اللجنة القضائية بالمعلومات المطلوبة ، ونتطلع إلى الاستمرار في التعاون مع المشرعين وتقديم نظرة ثاقبة على صناعة AI للمستهلك والتكنولوجيا المتطورة بسرعة في الفضاء”.

ومع ذلك ، أكد أولئك الذين خاطبوا المشرعين يوم الثلاثاء أن الابتكار التكنولوجي لا يمكن أن يأتي على حساب حياة الناس.

وقالت المرأة التي شهدت باسم جين دو ، صوتها وهو يهتز أثناء حديثها: “أطفالنا ليسوا تجارب ، وهم ليسوا نقاط بيانات أو مراكز ربح”. “إنهم بشر لديهم عقول وأرواح لا يمكن إعادة برمجتها بمجرد أن تتعرض للأذى. إذا كنت هنا اليوم يساعد في إنقاذ حياة واحدة ، فهذا يستحق ذلك بالنسبة لي. هذه أزمة صحية عامة أراها. هذه حرب صحية عقلية ، وأشعر حقًا أننا نخسر”.

تم نشر هذا المقال في الأصل على NBCNews.com