وتقول شركة OpenAI إن المجموعات الروسية والإسرائيلية استخدمت أدواتها لنشر المعلومات المضللة

أصدرت شركة OpenAI يوم الخميس أول تقرير لها على الإطلاق حول كيفية استخدام أدوات الذكاء الاصطناعي الخاصة بها في عمليات التأثير السرية، وكشفت أن الشركة عطلت حملات تضليل مصدرها روسيا والصين وإسرائيل وإيران.

واستخدمت الجهات الخبيثة نماذج الذكاء الاصطناعي التوليدية للشركة لإنشاء ونشر محتوى دعائي عبر منصات التواصل الاجتماعي، ولترجمة محتواها إلى لغات مختلفة. وفقًا للتقرير، لم تكتسب أي من الحملات جذبًا أو وصلت إلى جماهير كبيرة.

متعلق ب: تم إطلاق جائزة بقيمة 10 ملايين دولار للفريق الذي يمكنه التحدث حقًا مع الحيوانات

نظرًا لأن الذكاء الاصطناعي التوليدي أصبح صناعة مزدهرة، فقد كان هناك قلق واسع النطاق بين الباحثين والمشرعين بشأن قدرته على زيادة كمية ونوعية المعلومات المضللة عبر الإنترنت. وقد حاولت شركات الذكاء الاصطناعي مثل OpenAI، التي تصنع ChatGPT، تهدئة هذه المخاوف ووضع حواجز على التكنولوجيا الخاصة بها، بنتائج متباينة.

يعد تقرير OpenAI المكون من 39 صفحة واحدًا من أكثر التقارير تفصيلاً من شركة ذكاء اصطناعي حول استخدام برامجها للدعاية. زعمت شركة OpenAI أن باحثيها عثروا على حسابات مرتبطة بخمس عمليات تأثير سرية وحظروها خلال الأشهر الثلاثة الماضية، والتي كانت من مزيج من الجهات الحكومية والخاصة.

وفي روسيا، قامت عمليتان بإنشاء ونشر محتوى ينتقد الولايات المتحدة وأوكرانيا والعديد من دول البلطيق. استخدمت إحدى العمليات نموذج OpenAI لتصحيح التعليمات البرمجية وإنشاء روبوت يتم نشره على Telegram. أنتجت عملية التأثير الصينية نصًا باللغات الإنجليزية والصينية واليابانية والكورية، والذي نشره النشطاء بعد ذلك على Twitter وMedium.

وأنتج ممثلون إيرانيون مقالات كاملة تهاجم الولايات المتحدة وإسرائيل، وترجموها إلى الإنجليزية والفرنسية. أدارت شركة سياسية إسرائيلية تدعى Stoic شبكة من حسابات وسائل التواصل الاجتماعي المزيفة التي أنشأت مجموعة من المحتوى، بما في ذلك المنشورات التي تتهم الاحتجاجات الطلابية الأمريكية ضد الحرب الإسرائيلية في غزة بأنها معادية للسامية.

العديد من ناشري المعلومات المضللة الذين حظرتهم شركة OpenAI من منصتها كانوا معروفين بالفعل للباحثين والسلطات. فرضت وزارة الخزانة الأمريكية عقوبات على رجلين روسيين في مارس/آذار، زُعم أنهما كانا وراء إحدى الحملات التي اكتشفتها شركة OpenAI، في حين قامت شركة Meta أيضًا بحظر Stoic من منصتها هذا العام لانتهاكها سياساتها.

يسلط التقرير الضوء أيضًا على كيفية دمج الذكاء الاصطناعي الإنتاجي في حملات التضليل كوسيلة لتحسين جوانب معينة من إنشاء المحتوى، مثل نشر منشورات بلغة أجنبية أكثر إقناعًا، لكنه ليس الأداة الوحيدة للدعاية.

وذكر التقرير أن “كل هذه العمليات استخدمت الذكاء الاصطناعي إلى حد ما، ولكن لم يستخدمه أي منها بشكل حصري”. “بدلاً من ذلك، كانت المواد التي أنشأها الذكاء الاصطناعي مجرد واحد من أنواع عديدة من المحتوى الذي نشروه، إلى جانب التنسيقات التقليدية، مثل النصوص المكتوبة يدويًا، أو الميمات المنسوخة عبر الإنترنت.”

وفي حين أن أياً من الحملات لم تسفر عن أي تأثير ملحوظ، فإن استخدامها للتكنولوجيا يُظهر كيف وجدت الجهات الفاعلة الخبيثة أن الذكاء الاصطناعي التوليدي يسمح لها بتوسيع نطاق إنتاج الدعاية. أصبح من الممكن الآن كتابة المحتوى وترجمته ونشره بشكل أكثر كفاءة من خلال استخدام أدوات الذكاء الاصطناعي، مما يخفض مستوى إنشاء حملات تضليل.

على مدى العام الماضي، استخدمت الجهات الفاعلة الخبيثة الذكاء الاصطناعي التوليدي في بلدان حول العالم لمحاولة التأثير على السياسة والرأي العام. تم استخدام الصوت المزيف العميق والصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والحملات النصية لتعطيل الحملات الانتخابية، مما أدى إلى زيادة الضغط على شركات مثل OpenAI لتقييد استخدام أدواتها.

وذكرت OpenAI أنها تخطط لإصدار تقارير مماثلة بشكل دوري حول عمليات التأثير السرية، بالإضافة إلى إزالة الحسابات التي تنتهك سياساتها.

Exit mobile version