نيويورك (أسوشيتد برس) – ألقى محاميان اعتذاريان ردوا على قاض غاضب باللوم على ChatGPT يوم الخميس لخداعهم لإدراج بحث قانوني وهمي في ملف المحكمة.
يواجه المحاميان ستيفن أ.شوارتز وبيتر لودوكا عقوبة محتملة بسبب رفع دعوى قضائية ضد شركة طيران تضمنت إشارات إلى قضايا قضائية سابقة اعتقد شوارتز أنها حقيقية ، ولكن في الواقع اخترعها برنامج الدردشة الآلي المدعوم بالذكاء الاصطناعي.
أوضح شوارتز أنه استخدم البرنامج الرائد في البحث عن سوابق قانونية تدعم قضية عميل ضد شركة الطيران الكولومبية أفيانكا بسبب إصابة حدثت في رحلة طيران عام 2019.
اقترح برنامج chatbot ، الذي أبهر العالم بإنتاجه إجابات شبيهة بالمقالات للمطالبات من المستخدمين ، العديد من الحالات التي تنطوي على حوادث الطيران التي لم يتمكن شوارتز من العثور عليها من خلال الأساليب المعتادة المستخدمة في مكتب المحاماة الخاص به.
كانت المشكلة أن العديد من هذه الحالات لم تكن حقيقية أو تتعلق بشركات طيران غير موجودة.
قال شوارتز للقاضي ب. كيفين كاستل إنه “كان يعمل تحت مفهوم خاطئ … أن هذا الموقع كان يحصل على هذه القضايا من بعض المصادر التي لم يكن بإمكاني الوصول إليها.”
وقال إنه “فشل فشلاً ذريعاً” في إجراء بحث المتابعة للتأكد من صحة الاستشهادات.
قال شوارتز: “لم أفهم أن ChatGPT يمكنها اختلاق القضايا”.
استثمرت Microsoft حوالي مليار دولار في OpenAI ، الشركة التي تقف وراء ChatGPT.
إن نجاحه ، الذي أظهر كيف يمكن للذكاء الاصطناعي أن يغير طريقة عمل البشر وتعلمهم ، قد ولّد مخاوف لدى البعض. وقع المئات من قادة الصناعة على خطاب في مايو يحذر من أن “التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.
بدا القاضي كاستل محيرًا ومنزعجًا من الحدث غير المعتاد وخيب أمله لأن المحامين لم يتصرفوا بسرعة لتصحيح الاستشهادات القانونية الزائفة عندما تم تنبيههم لأول مرة بالمشكلة من قبل محامي شركة Avianca والمحكمة. أشارت أفيانكا إلى السوابق القضائية الزائفة في ملف مارس / آذار.
واجه القاضي شوارتز بقضية قانونية واحدة اخترعها برنامج الكمبيوتر. تم وصفها في البداية على أنها قضية وفاة غير مشروعة رفعتها امرأة ضد شركة طيران فقط لتتحول إلى دعوى قانونية حول رجل فاتته رحلة إلى نيويورك واضطر إلى تحمل نفقات إضافية.
“هل يمكننا أن نتفق على أن هذا هراء قانوني؟” سأل كاستل.
قال شوارتز إنه اعتقد خطأً أن العرض المربك نتج عن مقتطفات مأخوذة من أجزاء مختلفة من القضية.
عندما انتهى كاستل من استجوابه ، سأل شوارتز عما إذا كان لديه أي شيء آخر ليقوله.
قال شوارتز: “أود أن أعتذر بصدق”.
وأضاف أنه عانى شخصياً ومهنياً نتيجة الخطأ الفادح وشعر “بالحرج والإذلال والندم الشديد”.
قال إنه هو والشركة التي كان يعمل فيها – ليفيدو وليفيدو وأوبرمان – قد وضعوا إجراءات وقائية لضمان عدم حدوث أي شيء مماثل مرة أخرى.
قال لودوكا ، المحامي الآخر الذي عمل في القضية ، إنه يثق بشوارتز ولم يراجع بشكل كاف ما جمعه.
بعد أن قرأ القاضي أجزاءً من إحدى القضايا التي تم الاستشهاد بها بصوت عالٍ لإظهار مدى سهولة تمييز أنها كانت “رطانة” ، قال لودوكا: “لم يخطر ببالي مطلقًا أن هذه قضية مزيفة”.
قال إن النتيجة “تؤلمني بلا نهاية”.
وقال رونالد مينكوف ، محامي شركة المحاماة ، للقاضي إن الطلب “نتج عن الإهمال وليس سوء النية” ولا ينبغي أن يؤدي إلى عقوبات.
وقال إن المحامين مروا تاريخياً بأوقات عصيبة مع التكنولوجيا ، وخاصة التكنولوجيا الجديدة ، “ولم يصبح الأمر أسهل”.
“السيد. اختار شوارتز ، الذي بالكاد يقوم بأبحاث فيدرالية ، استخدام هذه التكنولوجيا الجديدة. قال مينكوف إنه يعتقد أنه كان يتعامل مع محرك بحث قياسي ، وما كان يفعله هو اللعب بالذخيرة الحية.
قال دانيال شين ، الأستاذ المساعد ومساعد مدير الأبحاث في مركز التكنولوجيا القانونية والمحكمة في كلية وليام وماري للقانون ، إنه قدم قضية Avianca خلال مؤتمر الأسبوع الماضي الذي جذب العشرات من المشاركين شخصيًا وعبر الإنترنت من الولاية والفيدرالية. المحاكم في الولايات المتحدة ، بما في ذلك محكمة مانهاتن الفيدرالية.
وقال إن الموضوع أثار الصدمة والارتباك في المؤتمر.
قال شين: “نحن نتحدث عن المنطقة الجنوبية لنيويورك ، المنطقة الفيدرالية التي تتعامل مع القضايا الكبرى ، 11 سبتمبر لجميع الجرائم المالية الكبيرة”. “كانت هذه أول حالة موثقة لسوء سلوك مهني محتمل من قبل محامٍ باستخدام الذكاء الاصطناعي التوليدي.”
وقال إن القضية أوضحت كيف قد لا يفهم المحامون كيفية عمل ChatGPT لأنها تميل إلى الهلوسة ، وتتحدث عن أشياء خيالية بطريقة تبدو واقعية ولكنها ليست كذلك.
قال شين: “إنه يسلط الضوء على مخاطر استخدام تقنيات الذكاء الاصطناعي الواعدة دون معرفة المخاطر”.
قال القاضي إنه سيصدر حكمًا بالعقوبات في وقت لاحق.
اترك ردك