قالت شركة جوجل، الجمعة، إنها أدخلت “أكثر من عشرة تحسينات تقنية” على أنظمة الذكاء الاصطناعي لديها بعد أن تبين أن محرك البحث المعاد تجهيزه ينشر معلومات خاطئة.
أطلقت شركة التكنولوجيا العنان لعملية تجديد لمحرك البحث الخاص بها في منتصف شهر مايو والذي يوفر بشكل متكرر ملخصات تم إنشاؤها بواسطة الذكاء الاصطناعي أعلى نتائج البحث. وبعد فترة وجيزة، بدأ مستخدمو وسائل التواصل الاجتماعي بمشاركة لقطات الشاشة لأكثر الإجابات غرابة.
ودافعت جوجل إلى حد كبير عن ميزة النظرة العامة على الذكاء الاصطناعي، قائلة إنها عادة ما تكون دقيقة وتم اختبارها على نطاق واسع مسبقًا. لكن ليز ريد، رئيسة أعمال البحث في جوجل، اعترفت في تدوينة يوم الجمعة بأن “بعض النظرات العامة الغريبة أو غير الدقيقة أو غير المفيدة للذكاء الاصطناعي ظهرت بالتأكيد”.
وفي حين أن العديد من الأمثلة كانت سخيفة، إلا أن بعضها الآخر كان عبارة عن أكاذيب خطيرة أو ضارة. ومما زاد من حدة الضجة أن بعض الأشخاص قاموا أيضًا بعمل لقطات شاشة مزيفة بزعم إظهار المزيد من الإجابات السخيفة التي لم تنتجها Google مطلقًا. كما تمت مشاركة عدد قليل من هذه المنتجات المزيفة على نطاق واسع على وسائل التواصل الاجتماعي.
سألت وكالة أسوشيتد برس جوجل الأسبوع الماضي عن نوع الفطر البري الذي يجب تناوله، وأجابت بملخص مطول تم إنشاؤه بواسطة الذكاء الاصطناعي والذي كان في الغالب صحيحًا من الناحية الفنية، ولكن “هناك الكثير من المعلومات المفقودة التي يمكن أن تكون مرضية أو حتى قاتلة، “قالت ماري كاثرين إيمي، أستاذة علم الفطريات وعلم النبات في جامعة بوردو، والتي راجعت رد Google على استفسار وكالة اسوشييتد برس.
على سبيل المثال، قالت إن المعلومات حول الفطر المعروف باسم كرات البافبول كانت “صحيحة إلى حد ما”، لكن نظرة جوجل العامة ركزت على البحث عن تلك التي تحتوي على لحم أبيض صلب – وهو ما يحتوي عليه أيضًا العديد من تقليد البافبول المميت.
وفي مثال آخر منتشر على نطاق واسع، سأل أحد الباحثين في مجال الذكاء الاصطناعي جوجل عن عدد المسلمين الذين تولوا رئاسة الولايات المتحدة، فأجاب بثقة بنظرية المؤامرة التي تم فضحها منذ فترة طويلة: “كان للولايات المتحدة رئيس مسلم واحد، باراك حسين أوباما”.
أجرت Google الأسبوع الماضي إصلاحًا فوريًا لمنع تكرار خطأ أوباما لأنه ينتهك سياسات المحتوى الخاصة بالشركة.
وفي حالات أخرى، قالت ريد يوم الجمعة إنها سعت إلى إجراء تحسينات أوسع نطاقا مثل الكشف بشكل أفضل عن “الاستفسارات غير المنطقية” – على سبيل المثال، “كم عدد الصخور التي يجب أن آكلها؟” – لا ينبغي الرد على ذلك بملخص الذكاء الاصطناعي.
كما تم تحديث أنظمة الذكاء الاصطناعي للحد من استخدام المحتوى الذي ينشئه المستخدمون – مثل منشورات وسائل التواصل الاجتماعي على Reddit – التي يمكن أن تقدم نصائح مضللة. في أحد الأمثلة التي تمت مشاركتها على نطاق واسع، تم سحب نظرة عامة على الذكاء الاصطناعي من Google الأسبوع الماضي من تعليق Reddit الساخر لاقتراح استخدام الغراء لجعل الجبن يلتصق بالبيتزا.
وقال ريد إن الشركة أضافت أيضًا المزيد من “القيود المثيرة” لتحسين جودة الإجابات على استفسارات معينة، مثل الأسئلة المتعلقة بالصحة.
لكن ليس من الواضح كيف يتم ذلك وفي أي ظروف. وفي يوم الجمعة، سألت وكالة الأسوشييتد برس جوجل مرة أخرى عن نوع الفطر البري الذي يجب تناوله. قال إيمي، خبير فطر بوردو ورئيس جمعية الفطريات الأمريكية، إن الإجابات التي يولدها الذكاء الاصطناعي عشوائية بطبيعتها، وكانت الاستجابة الأحدث مختلفة ولكنها لا تزال “إشكالية”.
على سبيل المثال، قالت إن القول بأن “شانتيريل تبدو مثل الأصداف البحرية أو الزهور ليس صحيحًا”.
تم تصميم ملخصات Google لتزويد الأشخاص بإجابات موثوقة للمعلومات التي يبحثون عنها في أسرع وقت ممكن دون الحاجة إلى النقر فوق قائمة مرتبة من روابط مواقع الويب.
لكن بعض خبراء الذكاء الاصطناعي حذروا جوجل منذ فترة طويلة من التنازل عن نتائج بحثها للإجابات التي يولدها الذكاء الاصطناعي والتي يمكن أن تؤدي إلى إدامة التحيز والمعلومات الخاطئة وتعرض الأشخاص الذين يبحثون عن المساعدة في حالات الطوارئ للخطر. تعمل أنظمة الذكاء الاصطناعي المعروفة باسم نماذج اللغات الكبيرة من خلال التنبؤ بالكلمات التي من شأنها أن تجيب بشكل أفضل على الأسئلة المطروحة عليها بناءً على البيانات التي تم تدريبها عليها. إنهم عرضة لاختلاق الأشياء، وهي مشكلة تمت دراستها على نطاق واسع وتعرف باسم الهلوسة.
في منشورها على مدونتها يوم الجمعة، جادلت ريد بأن النظرات العامة حول الذكاء الاصطناعي من Google “لا تهلوس بشكل عام أو تختلق الأشياء بطرق قد تفعلها” المنتجات الأخرى القائمة على نماذج اللغة الكبيرة لأنها أكثر تكاملاً بشكل وثيق مع محرك البحث التقليدي من Google في فقط عرض ما تم دعمه بأهم نتائج الويب.
وكتبت: “عندما تخطئ ميزة AI Overviews، فعادةً ما يكون ذلك لأسباب أخرى: سوء تفسير الاستعلامات، أو سوء تفسير الفروق الدقيقة في اللغة على الويب، أو عدم توفر الكثير من المعلومات الرائعة”.
لكن من المفترض أن يكون هذا النوع من استرجاع المعلومات هو العمل الأساسي لشركة جوجل، كما قال عالم الكمبيوتر شيراج شاه، الأستاذ بجامعة واشنطن، والذي حذر من الدفع نحو تحويل البحث إلى نماذج لغة الذكاء الاصطناعي. حتى لو كانت ميزة الذكاء الاصطناعي في جوجل “لا تختلق من الناحية الفنية أشياء غير موجودة”، فإنها لا تزال تعيد معلومات كاذبة – سواء كانت من صنع الذكاء الاصطناعي أو من صنع الإنسان – وتدمجها في ملخصاتها.
وقال شاه: “إذا كان هناك أي شيء، فهذا أسوأ لأنه على مدى عقود من الزمن، وثق الناس بشيء واحد على الأقل من جوجل، ألا وهو بحثهم”.
اترك ردك