أثار قرار شركة Meta بإنهاء برنامجها المهني لتدقيق الحقائق موجة من الانتقادات في عالم التكنولوجيا والإعلام. وحذر المنتقدون من أن إسقاط إشراف الخبراء يمكن أن يؤدي إلى تآكل الثقة والموثوقية في مشهد المعلومات الرقمية، خاصة عندما تُترك المنصات التي يحركها الربح في الغالب لضبط نفسها.
ومع ذلك، ما تم التغاضي عنه في الكثير من هذا النقاش هو أن نماذج اللغة الكبيرة للذكاء الاصطناعي تُستخدم اليوم بشكل متزايد لكتابة ملخصات الأخبار والعناوين الرئيسية والمحتوى الذي يلفت انتباهك قبل وقت طويل من أن تتمكن آليات الإشراف على المحتوى التقليدية من التدخل. المشكلة ليست حالات واضحة من المعلومات الخاطئة أو المواضيع الضارة التي لا يتم الإبلاغ عنها في غياب الإشراف على المحتوى. ما هو مفقود من المناقشة هو كيفية اختيار المعلومات الدقيقة ظاهريًا، وتأطيرها والتأكيد عليها بطرق يمكن أن تشكل الإدراك العام.
تؤثر نماذج اللغة الكبيرة تدريجيًا على الطريقة التي يشكل بها الأشخاص آراءهم من خلال توليد المعلومات التي تقدمها روبوتات الدردشة والمساعدون الافتراضيون للأشخاص بمرور الوقت. ويتم الآن أيضًا دمج هذه النماذج في المواقع الإخبارية ومنصات التواصل الاجتماعي وخدمات البحث، مما يجعلها البوابة الرئيسية للحصول على المعلومات.
تشير الدراسات إلى أن النماذج اللغوية الكبيرة تفعل أكثر من مجرد نقل المعلومات. يمكن لإجاباتهم أن تسلط الضوء بمهارة على وجهات نظر معينة مع التقليل من وجهات نظر أخرى، وغالبًا دون أن يدرك المستخدمون ذلك.
تحيز الاتصالات
أظهرنا أنا وزميلي عالم الكمبيوتر ستيفان شميد، وهو باحث في قانون وسياسة التكنولوجيا، في ورقة بحثية مقبولة قادمة في مجلة Communications of the ACM أن النماذج اللغوية الكبيرة تظهر تحيزًا في الاتصال. لقد وجدنا أنهم قد يكون لديهم ميل إلى تسليط الضوء على وجهات نظر معينة مع حذف أو التقليل من وجهات نظر أخرى. يمكن أن يؤثر هذا التحيز على كيفية تفكير المستخدمين أو شعورهم، بغض النظر عما إذا كانت المعلومات المقدمة صحيحة أم خاطئة.
أنتجت الأبحاث التجريبية على مدى السنوات القليلة الماضية مجموعات بيانات مرجعية تربط مخرجات النموذج بمواقف الحزب قبل الانتخابات وأثناءها. وهي تكشف عن اختلافات في كيفية تعامل نماذج اللغات الكبيرة الحالية مع المحتوى العام. اعتمادا على الشخصية أو السياق المستخدم في تحفيز النماذج اللغوية الكبيرة، تميل النماذج الحالية بمهارة نحو مواقف معينة – حتى عندما تظل الدقة الواقعية سليمة.
تشير هذه التحولات إلى شكل ناشئ من القابلية للتوجيه على أساس الشخصية – ميل النموذج إلى مواءمة لهجته وتركيزه مع التوقعات المتصورة للمستخدم. على سبيل المثال، عندما يصف مستخدم نفسه كناشط بيئي وآخر بأنه مالك عمل، قد يجيب النموذج على نفس السؤال حول قانون المناخ الجديد من خلال التأكيد على اهتمامات مختلفة، ولكنها دقيقة من الناحية الواقعية، لكل منهما. على سبيل المثال، يمكن أن تتمثل الانتقادات في أن القانون لا يذهب إلى حد كافٍ في تعزيز الفوائد البيئية وأن القانون يفرض أعباء تنظيمية وتكاليف امتثال.
يمكن بسهولة أن يُساء فهم مثل هذه المحاذاة على أنها تملق. تسمى هذه الظاهرة بالتملق: تخبر النماذج المستخدمين بشكل فعال بما يريدون سماعه. ولكن في حين أن التملق هو أحد أعراض التفاعل بين نموذج المستخدم، فإن تحيز الاتصال يكون أعمق. فهو يعكس التفاوتات في الجهة التي تصمم هذه الأنظمة وتبنيها، وما هي مجموعات البيانات التي تستمد منها، وما هي الحوافز التي تدفعها إلى تحسينها. عندما يهيمن عدد قليل من المطورين على سوق نماذج اللغة الكبيرة وتقدم أنظمتهم باستمرار بعض وجهات النظر بشكل أكثر إيجابية من غيرها، فإن الاختلافات الصغيرة في سلوك النموذج يمكن أن تتحول إلى تشوهات كبيرة في التواصل العام.
ما الذي يمكن للتنظيم فعله وما لا يمكنه فعله
يعتمد المجتمع الحديث بشكل متزايد على نماذج اللغة الكبيرة باعتبارها الواجهة الأساسية بين الناس والمعلومات. أطلقت الحكومات في جميع أنحاء العالم سياسات لمعالجة المخاوف بشأن تحيز الذكاء الاصطناعي. على سبيل المثال، يحاول قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي وقانون الخدمات الرقمية فرض الشفافية والمساءلة. ولكن لم يتم تصميم أي منهما لمعالجة المشكلة الدقيقة المتمثلة في تحيز الاتصال في مخرجات الذكاء الاصطناعي.
غالبًا ما يستشهد أنصار تنظيم الذكاء الاصطناعي بالذكاء الاصطناعي المحايد كهدف، لكن الحياد الحقيقي غالبًا ما يكون بعيد المنال. تعكس أنظمة الذكاء الاصطناعي التحيزات المضمنة في بياناتها وتدريبها وتصميمها، وغالبًا ما تؤدي محاولات تنظيم هذا التحيز إلى استبدال نوع من التحيز بآخر.
ولا يقتصر تحيز الاتصال على الدقة فحسب، بل يتعلق أيضًا بإنشاء المحتوى وتأطيره. تخيل أنك تطرح سؤالاً على نظام الذكاء الاصطناعي حول تشريع مثير للجدل. لا تتشكل إجابة النموذج من خلال الحقائق فحسب، بل أيضًا من خلال كيفية عرض تلك الحقائق، وما هي المصادر التي تم تسليط الضوء عليها والنبرة ووجهة النظر التي تتبناها.
وهذا يعني أن جذور مشكلة التحيز لا تكمن فقط في معالجة بيانات التدريب المتحيزة أو المخرجات المنحرفة، بل في هياكل السوق التي تشكل تصميم التكنولوجيا في المقام الأول. عندما لا يتمكن سوى عدد قليل من النماذج اللغوية الكبيرة من الوصول إلى المعلومات، فإن خطر التحيز في الاتصال يتزايد. وبعيداً عن التنظيم، يتطلب التخفيف الفعّال من التحيز حماية المنافسة، والمساءلة التي يحركها المستخدمون، والانفتاح التنظيمي على طرق مختلفة لبناء وتقديم نماذج لغوية كبيرة.
وتهدف معظم اللوائح حتى الآن إلى حظر المخرجات الضارة بعد نشر التكنولوجيا، أو إجبار الشركات على إجراء عمليات التدقيق قبل الإطلاق. يوضح تحليلنا أنه على الرغم من أن فحوصات ما قبل الإطلاق ومراقبة ما بعد النشر قد تكتشف الأخطاء الأكثر وضوحًا، إلا أنها قد تكون أقل فعالية في معالجة تحيز الاتصال الخفي الذي يظهر من خلال تفاعلات المستخدم.
ما وراء تنظيم الذكاء الاصطناعي
من المغري أن نتوقع أن التنظيم قادر على القضاء على جميع التحيزات في أنظمة الذكاء الاصطناعي. وفي بعض الحالات، قد تكون هذه السياسات مفيدة، ولكنها تميل إلى الفشل في معالجة قضية أعمق: الحوافز التي تحدد التكنولوجيات التي تنقل المعلومات إلى عامة الناس.
توضح النتائج التي توصلنا إليها أن الحل الأكثر استدامة يكمن في تعزيز المنافسة والشفافية والمشاركة الهادفة للمستخدمين، وتمكين المستهلكين من لعب دور نشط في كيفية تصميم الشركات واختبارها ونشر نماذج لغوية كبيرة.
والسبب وراء أهمية هذه السياسات هو أن الذكاء الاصطناعي لن يؤثر في نهاية المطاف على المعلومات التي نسعى إليها والأخبار اليومية التي نقرأها فحسب، بل سيلعب أيضا دورا حاسما في تشكيل نوع المجتمع الذي نتصوره للمستقبل.
تم إعادة نشر هذا المقال من The Conversation، وهي منظمة إخبارية مستقلة غير ربحية تقدم لك حقائق وتحليلات جديرة بالثقة لمساعدتك على فهم عالمنا المعقد. كتب بواسطة: أدريان كوينزلر، جامعة دنفر; جامعة هونغ كونغ
اقرأ المزيد:
لا يعمل Adrian Kuenzler لدى أي شركة أو مؤسسة أو يقدم الاستشارة أو يمتلك أسهمًا فيها أو يتلقى تمويلًا منها قد تستفيد من هذه المقالة، ولم يكشف عن أي انتماءات ذات صلة بعد تعيينه الأكاديمي.


















اترك ردك