ما هي الهلوسة الذكاء الاصطناعي؟ لماذا تصنع AIS الأشياء أحيانًا

عندما يرى شخص ما شيئًا غير موجود ، غالبًا ما يشير الناس إلى التجربة على أنها هلوسة. تحدث الهلوسة عندما لا يتوافق تصورك الحسي مع المحفزات الخارجية.

التقنيات التي تعتمد على الذكاء الاصطناعي يمكن أن يكون لها هلوسة أيضًا.

عندما يقوم نظام الخوارزمية بإنشاء معلومات تبدو معقولة ولكنها في الواقع غير دقيقة أو مضللة ، يطلق عليها علماء الكمبيوتر هلوسة منظمة العفو الدولية. لقد وجد الباحثون هذه السلوكيات في أنواع مختلفة من أنظمة الذكاء الاصطناعى ، من chatbots مثل chatgpt إلى مولدات الصور مثل Dall-E إلى المركبات المستقلة. نحن باحثون في علم المعلومات الذين درسوا الهلوسة في أنظمة التعرف على خطاب الذكاء الاصطناعي.

أينما يتم استخدام أنظمة الذكاء الاصطناعى في الحياة اليومية ، يمكن أن تشكل الهلوسة مخاطر. قد يكون البعض بسيطًا-عندما يعطي chatbot الإجابة الخاطئة على سؤال بسيط ، قد ينتهي المستخدم بأنه غير مطلع. ولكن في حالات أخرى ، تكون المخاطر أعلى بكثير. من قاعات المحكمة حيث يتم استخدام برنامج الذكاء الاصطناعى لاتخاذ قرارات إصدار الأحكام لشركات التأمين الصحي التي تستخدم خوارزميات لتحديد أهلية المريض للتغطية ، يمكن أن يكون للهلوسة منظمة العفو الدولية عواقب وخيمة. يمكن أن تكون مهددة للحياة: تستخدم المركبات المستقلة الذكاء الاصطناعي للكشف عن العقبات والمركبات الأخرى والمشاة.

مما يجعلها

الهلوسة وتأثيراتها تعتمد على نوع نظام الذكاء الاصطناعي. مع نماذج اللغة الكبيرة – التكنولوجيا الأساسية لـ AI chatbots – فإن الهلوسة هي أجزاء من المعلومات التي تبدو مقنعة ولكنها غير صحيحة أو مكونة أو غير ذات صلة. قد يخلق chatbot منظمة العفو الدولية إشارة إلى مقال علمي غير موجود أو يوفر حقيقة تاريخية خاطئة ببساطة ، ولكنها تجعلها تبدو معقولة.

في قضية محكمة عام 2023 ، على سبيل المثال ، قدم محامي نيويورك موجزًا ​​قانونيًا كتبه بمساعدة ChatGPT. لاحظ القاضي المميز في وقت لاحق أن الموجز استشهد بقضية أن تشاتغبت قد تعرضها. قد يؤدي ذلك إلى نتائج مختلفة في قاعات المحاكم إذا لم يتمكن البشر من اكتشاف جزء من المعلومات الملموسة.

من خلال أدوات الذكاء الاصطناعي التي يمكنها التعرف على الكائنات في الصور ، تحدث الهلوسة عندما تقوم الذكاء الاصطناعي بإنشاء تعليقات غير مخلصة للصورة المقدمة. تخيل أن تطلب من النظام أن يسرد الأشياء في صورة لا تتضمن سوى امرأة من الصدر وهي تتحدث على الهاتف وتلقي استجابة تقول امرأة تتحدث على الهاتف أثناء الجلوس على مقعد. يمكن أن تؤدي هذه المعلومات غير الدقيقة إلى عواقب مختلفة في السياقات التي تكون فيها الدقة أمرًا بالغ الأهمية.

ما الذي يسبب الهلوسة

يقوم المهندسون ببناء أنظمة الذكاء الاصطناعى من خلال جمع كميات هائلة من البيانات وتغذيتها في نظام حسابي يكتشف الأنماط في البيانات. يقوم النظام بتطوير طرق للرد على الأسئلة أو أداء المهام بناءً على تلك الأنماط.

قم بتزويد نظام الذكاء الاصطناعي مع 1000 صورة من سلالات مختلفة من الكلاب ، المسمى وفقًا لذلك ، وسيتعلم النظام قريبًا اكتشاف الفرق بين القلطي والمسترد الذهبي. لكن إطعامها صورة لكعك التوت ، وكما أظهر الباحثون في التعلم الآلي ، قد يخبرك أن الكعك هو تشيهواهوا.

يمكن أن تواجه AIS التعرف على الكائنات مشكلة في التمييز بين Chihuahuas و Blueberry Cuffins وبين الراعي والممسحة. Shenkman et al ، CC بواسطة

عندما لا يفهم النظام السؤال أو المعلومات التي يتم تقديمها ، فقد يهلوس. غالبًا ما تحدث الهلوسة عندما يملأ النموذج الثغرات بناءً على سياقات مماثلة من بيانات التدريب الخاصة به ، أو عندما يتم بناؤه باستخدام بيانات التدريب المتحيزة أو غير المكتملة. هذا يؤدي إلى تخمينات غير صحيحة ، كما في حالة الكعك التوت الخاطئ.

من المهم التمييز بين الهلوسة من الذكاء الاصطناعى ومخرجات الذكاء الاصطناعي الإبداعي. عندما يُطلب من نظام الذكاء الاصطناعى أن يكون مبدعًا – مثل كتابة قصة أو توليد صور فنية – من المتوقع ومرغوب في مخرجاته الجديدة. الهلوسة ، من ناحية أخرى ، تحدث عندما يُطلب من نظام الذكاء الاصطناعى تقديم معلومات واقعية أو أداء مهام محددة ولكن بدلاً من ذلك يولد محتوى غير صحيح أو مضلل أثناء تقديمه على أنه دقيق.

يكمن الاختلاف الرئيسي في السياق والغرض: الإبداع مناسب للمهام الفنية ، في حين أن الهلوسة تشكل مشكلة عندما تكون الدقة والموثوقية مطلوبة.

لمعالجة هذه المشكلات ، اقترحت الشركات استخدام بيانات التدريب عالية الجودة والحد من استجابات الذكاء الاصطناعي لمتابعة بعض الإرشادات. ومع ذلك ، قد تستمر هذه القضايا في أدوات الذكاء الاصطناعى الشعبية.

ما هو في خطر

قد يبدو تأثير الناتج مثل استدعاء الكعك التوت الأزرق تشيهواهوا تافهة ، ولكن النظر في الأنواع المختلفة من التقنيات التي تستخدم أنظمة التعرف على الصور: مركبة مستقلة تفشل في تحديد الأشياء يمكن أن تؤدي إلى حادث مروري مميت. طائرة بدون طيار العسكرية المستقلة التي تعدد الهدف يمكن أن يعرض حياة المدنيين في خطر.

بالنسبة لأدوات الذكاء الاصطناعي التي توفر التعرف التلقائي على الكلام ، فإن الهلوسة هي نسخ منظمة العفو الدولية التي تتضمن كلمات أو عبارات لم يتم التحدث بها بالفعل. من المرجح أن يحدث هذا في بيئات صاخبة ، حيث قد ينتهي نظام الذكاء الاصطناعي بإضافة كلمات جديدة أو غير ذات صلة في محاولة لفك ضوضاء الخلفية مثل شاحنة عابرة أو رضيع تبكي.

نظرًا لأن هذه الأنظمة أصبحت أكثر اندماجًا في الرعاية الصحية والخدمة الاجتماعية والإعدادات القانونية ، فإن الهلوسة في التعرف على الكلام التلقائي يمكن أن تؤدي إلى نتائج سريرية أو قانونية غير دقيقة تضر المرضى أو المدعى عليهم الجنائيين أو الأسر التي تحتاج إلى الدعم الاجتماعي.

تحقق من عمل الذكاء الاصطناعي

بغض النظر عن جهود شركات الذكاء الاصطناعى لتخفيف الهلوسة ، يجب على المستخدمين البقاء متيقظين ويسألون مخرجات الذكاء الاصطناعى ، خاصة عند استخدامها في سياقات تتطلب الدقة والدقة. تعد المعلومات التي يتم إنشاؤها المزدوج التي يتم إنشاؤها من الذكاء الاصطناعي مع مصادر موثوقة ، والخبراء الاستشاريين عند الضرورة ، والاعتراف بالقيود على هذه الأدوات خطوات أساسية لتقليل مخاطرهم.

يتم إعادة نشر هذه المقالة من المحادثة ، وهي مؤسسة إخبارية مستقلة غير ربحية تجلب لك الحقائق والتحليلات الجديرة بالثقة لمساعدتك على فهم عالمنا المعقد. كتبه: آنا تشوي ، جامعة كورنيل وكاتلين مي ، جامعة واشنطن

اقرأ المزيد:

لا يعمل المؤلفون على الأسهم أو استشارةها أو تلقيها من أي شركة أو مؤسسة ستستفيد من هذه المقالة ، ولم تكشف عن أي انتماءات ذات صلة تتجاوز تعيينها الأكاديمي.

Exit mobile version