في نوفمبر من العام الماضي، كان موراليكريشنان تشينادوراي يشاهد بثًا مباشرًا لحدث باللغة التاميلية في المملكة المتحدة عندما لاحظ شيئًا غريبًا.
وكانت امرأة تم تقديمها على أنها دواراكا، ابنة فيلوبيلاي برابهاكاران، زعيم متمردي نمور التاميل، تلقي خطابا.
وكانت المشكلة هي أن دواراكا توفي قبل أكثر من عقد من الزمان، في غارة جوية في عام 2009 خلال الأيام الأخيرة من الحرب الأهلية السريلانكية. ولم يتم العثور على جثة الشاب البالغ من العمر 23 عامًا.
والآن، ها هي امرأة في منتصف العمر على ما يبدو تحث التاميل في جميع أنحاء العالم على المضي قدمًا في النضال السياسي من أجل حريتهم.
شاهد تشينادوراي، وهو مدقق حقائق في ولاية تاميل نادو بجنوب الهند، الفيديو عن كثب، ولاحظ وجود خلل في الفيديو وسرعان ما أرجعه إلى كونه شخصية تم إنشاؤها بواسطة الذكاء الاصطناعي (AI).
كانت المشاكل المحتملة واضحة على الفور للسيد تشينادوراي: “هذه قضية عاطفية في الولاية [Tamil Nadu] ومع اقتراب موعد الانتخابات، يمكن أن تنتشر المعلومات الخاطئة بسرعة”.
مع توجه الهند إلى صناديق الاقتراع، من المستحيل تجنب إنشاء ثروة من المحتوى الناتج عن الذكاء الاصطناعي ــ من مقاطع فيديو الحملات الانتخابية، إلى الرسائل الصوتية الشخصية بمجموعة من اللغات الهندية، وحتى المكالمات الآلية التي يتم إجراؤها للناخبين بصوت المرشح.
لقد استمتع منشئو المحتوى مثل شهيد شيخ باستخدام أدوات الذكاء الاصطناعي لإظهار السياسيين الهنود في صور رمزية لم نرهم فيها من قبل: وهم يرتدون ملابس رياضية ويعزفون الموسيقى ويرقصون.
ولكن مع تطور الأدوات، يشعر الخبراء بالقلق بشأن آثارها عندما يتعلق الأمر بجعل الأخبار المزيفة تبدو حقيقية.
وأضاف “الشائعات كانت دائما جزءا من الدعاية الانتخابية. [But] يقول إس واي قريشي، رئيس مفوضي الانتخابات السابق في البلاد: “في عصر وسائل التواصل الاجتماعي، يمكن أن ينتشر كالنار في الهشيم”.
“يمكن أن يؤدي ذلك بالفعل إلى إشعال النار في البلاد.”
الأحزاب السياسية الهندية ليست الأولى في العالم التي تستفيد من التطورات الأخيرة في مجال الذكاء الاصطناعي. وعبر الحدود الباكستانية مباشرة، سمحت للسياسي المسجون عمران خان بإلقاء كلمة أمام تجمع حاشد.
وفي الهند نفسها، رئيس الوزراء ناريندرا مودي كما استفادت بالفعل من أفضل التقنيات الناشئة لتنظيم الحملات بفعالية – مخاطبة الجمهور باللغة الهندية، والتي تمت ترجمتها بعد ذلك إلى اللغة التاميلية في الوقت الفعلي، باستخدام أداة الذكاء الاصطناعي التي أنشأتها الحكومة “Bhashini”.
ولكن يمكن استخدامه أيضًا للتلاعب بالكلمات والرسائل.
وفي الشهر الماضي، أظهر مقطعا فيديو انتشرا على نطاق واسع نجمي بوليوود رانفير سينغ وعامر خان وهما يقومان بحملة لصالح حزب المؤتمر المعارض. وقد قدم كلاهما شكاوى للشرطة قائلين إن هذه كانت مزيفة عميقة، وتم إجراؤها دون موافقتهما.
ثم، في 29 إبريل/نيسان، أثار رئيس الوزراء مودي مخاوف بشأن استخدام الذكاء الاصطناعي لتشويه خطابات كبار قادة الحزب الحاكم، بمن فيهم هو.
في اليوم التالي، ألقت الشرطة القبض على شخصين، أحدهما من حزب آم آدمي المعارض والآخر من حزب المؤتمر، فيما يتعلق بمقطع فيديو تم التلاعب به لوزير الداخلية أميت شاه.
كما واجه حزب بهاراتيا جاناتا الذي يتزعمه مودي اتهامات مماثلة من زعماء المعارضة في البلاد.
المشكلة هي أنه على الرغم من الاعتقالات، لا يوجد تنظيم شامل، بحسب الخبراء.
وهو ما يعني أنه “إذا تم القبض عليك وأنت تفعل شيئًا خاطئًا، فقد تكون هناك صفعة على معصمك في أحسن الأحوال”، وفقًا لسرينيفاس كودالي، الباحث في البيانات والأمن.
وفي غياب التنظيم، قال المبدعون لبي بي سي إن عليهم الاعتماد على الأخلاقيات الشخصية لتحديد نوع العمل الذي يختارون القيام به أو عدم القيام به.
وعلمت بي بي سي أن من بين طلبات السياسيين، كانت هناك صور إباحية وتغيير مقاطع فيديو وتسجيلات صوتية لمنافسيهم للإضرار بسمعتهم.
يكشف ديفيندرا سينغ جادون: “لقد طُلب مني ذات مرة أن أصنع مظهرًا أصليًا مثل التزييف العميق لأن الفيديو الأصلي، إذا تمت مشاركته على نطاق واسع، سيجعل السياسي يبدو سيئًا”.
“لذا أراد فريقه مني أن أقوم بإنشاء صورة مزيفة عميقة حتى يتمكنوا من تقديمها على أنها النسخة الأصلية.”
يصر جادون، مؤسس شركة The Indian Deepfaker (TID)، التي ابتكرت أدوات لمساعدة الأشخاص على استخدام برامج الذكاء الاصطناعي مفتوحة المصدر لإنشاء مواد الحملة الانتخابية للسياسيين الهنود، على وضع إخلاء المسؤولية على أي شيء يقوم به حتى يكون من الواضح أنه غير حقيقي.
ولكن لا يزال من الصعب السيطرة عليها.
وقد شهد السيد شيخ، الذي يعمل مع وكالة تسويق في ولاية البنغال الغربية الشرقية، مشاركة أعماله دون إذن أو اعتماد من قبل السياسيين أو الصفحات السياسية على وسائل التواصل الاجتماعي.
ويقول: “استخدم أحد السياسيين صورة أنشأتها للسيد مودي دون سياق ودون الإشارة إلى أنها تم إنشاؤها باستخدام الذكاء الاصطناعي”.
وأصبح الآن من السهل جدًا إنشاء محتوى مزيف عميق بحيث يمكن لأي شخص القيام بذلك.
ويوضح السيد جادون قائلاً: “ما كان يستغرق منا سبعة أو ثمانية أيام لإنشائه يمكن الآن إنجازه في ثلاث دقائق”. “أنت فقط بحاجة إلى جهاز كمبيوتر.”
وفي الواقع، ألقت بي بي سي نظرة مباشرة على مدى سهولة إجراء مكالمة هاتفية مزيفة بين شخصين – في هذه الحالة، أنا والرئيس الأمريكي السابق.
وعلى الرغم من المخاطر، قالت الهند في البداية إنها لا تفكر في إصدار قانون للذكاء الاصطناعي. ومع ذلك، فقد بدأ العمل بها في شهر مارس/آذار من هذا العام بعد الضجة التي أثيرت حول استجابة برنامج Gemini chatbot التابع لشركة Google لاستعلام يسأل: “هل مودي فاشي؟”
وقال راجيف شاندراسيخار، وزير الدولة لتكنولوجيا المعلومات في البلاد، إن الشركة انتهكت قوانين تكنولوجيا المعلومات في البلاد.
منذ ذلك الحين، طلبت الحكومة الهندية من شركات التكنولوجيا الحصول على إذن صريح قبل إطلاق نماذج أو أدوات ذكاء اصطناعي توليدية “غير موثوقة” أو “غير مختبرة” علنًا. كما حذرت من ردود أفعال هذه الأدوات التي “تهدد نزاهة العملية الانتخابية”.
لكن هذا لا يكفي: يقول مدققو الحقائق إن مواكبة فضح مثل هذا المحتوى هي مهمة شاقة، خاصة خلال الانتخابات عندما تصل المعلومات المضللة إلى ذروتها.
يقول تشينادوراي، الذي يدير هيئة مراقبة وسائل الإعلام في ولاية تاميل نادو: “تنتقل المعلومات بسرعة 100 كيلومتر في الساعة”. “المعلومات المفضوحة التي ننشرها ستنتقل بسرعة 20 كيلومترًا في الساعة.”
ويقول كودالي إن هذه المنتجات المزيفة تشق طريقها إلى وسائل الإعلام الرئيسية. وعلى الرغم من ذلك، فإن “لجنة الانتخابات تلتزم الصمت علناً بشأن منظمة العفو الدولية”.
يقول كودالي: “لا توجد قواعد عامة”. “إنهم يسمحون لصناعة التكنولوجيا بالتنظيم الذاتي بدلاً من وضع لوائح فعلية.”
ويقول الخبراء إنه لا يوجد حل مضمون في الأفق.
“لكن [for now] يقول قريشي: “إذا تم اتخاذ إجراء ضد الأشخاص الذين يرسلون معلومات مزيفة، فقد يخيف ذلك الآخرين من مشاركة معلومات لم يتم التحقق منها”.
اترك ردك