هل يبيع توم هانكس تأمين الأسنان حقًا؟ هل أيد جايل كينج بالفعل عقارًا لإنقاص الوزن؟ هل تبرع السيدBeast، المؤثر الشهير على YouTube، بأجهزة iPhone مجانية؟ لا تصدق كل ما تراه على الإنترنت.
أصبح المشاهير والشخصيات المعروفة هدفًا لعدد متزايد من الإعلانات الخادعة على وسائل التواصل الاجتماعي والتي يبدو فيها أنهم يؤيدون منتجات أو خدمات معينة. في الواقع، فإن أشكالهم أو أصواتهم – التي غالبًا ما يتم إنشاؤها من برامج الذكاء الاصطناعي – هي التي تم استخدامها دون إذنهم أو معرفتهم لبيع البضائع.
في 30 سبتمبر، حذر هانكس من وجود نسخة من نفسه بواسطة الذكاء الاصطناعي في إعلان يتم تداوله على الإنترنت، حيث كان هانكس المزيف يروج للتأمين على الأسنان. ال فورست غامب أوضح النجم في منشور على Instagram أنه “لا علاقة له به”. [the ad]”.
وقد أشارت كينج إلى موقف مماثل في الثاني من أكتوبر، حيث شاركت مقطع فيديو تم التلاعب به زعمت فيه أنها تؤيد عقارًا لإنقاص الوزن. لقطات الفيديو المستخدمة كانت من مقطع بتاريخ 31 أغسطس حيث صباح سي بي اس كان المضيف يروج لبرنامجها الإذاعي. “لقد تلاعبوا بصوتي والفيديو ليجعلوا الأمر يبدو وكأنني أقوم بالترويج [the product]”، كتب كينغ على Instagram. “لم أسمع قط عن هذا المنتج أو استخدمته! من فضلك لا تنخدع بفيديوهات الذكاء الاصطناعي هذه.”
صعد منشئ موقع YouTube MrBeast، واسمه الحقيقي Jimmy Donaldson، إلى الشهرة من خلال تقديم جوائز نقدية باهظة من خلال الأعمال المثيرة والتحديات المتقنة. في 2 أكتوبر، دونالدسون مشاركة مقطع فيديو تم إنشاؤه بواسطة الذكاء الاصطناعي على X، المعروف سابقًا باسم Twitter، حيث ظهر وهو يتبرع بـ 10000 جهاز iPhone 15 Pro. وكتب: “هل منصات التواصل الاجتماعي جاهزة للتعامل مع صعود التزييف العميق الذي يعتمد على الذكاء الاصطناعي؟ هذه مشكلة خطيرة”، فضح الإعلان المزيف.
لماذا كانت هناك زيادة في تأييد المشاهير وهمية؟
إن الاستخدام غير المصرح به لصور المشاهير في التأييدات أو مقاطع الفيديو المزيفة ليس بالأمر الجديد، ولكن الزيادة الأخيرة في حجم مقاطع الفيديو التي تم التلاعب بها تثير القلق.
في فبراير/شباط، كان جو روغان موضوع إعلان مضلل على TikTok بدا فيه أنه يروج لحبوب تعزيز الذكور. في أكتوبر 2022، أسقط ممثل بروس ويليس التقارير التي تفيد بأن الممثل المتقاعد باع صورته لإنشاء “توأم رقمي” لاستخدامه في المحتوى المستقبلي. ووصفت زيلدا ويليامز، ابنة الراحل روبن ويليامز، الاستخدام غير المفوض للذكاء الاصطناعي لإعادة إنشاء صوت الممثل بأنه “مزعج شخصيًا”.
“لقد أصبح من الأسهل إنشاء أشياء لا يمكن تمييزها عن الشيء الحقيقي. لقد أصبح الأمر أكثر صعوبة [to decipher what’s real] عندما تشاهد مقطع فيديو على وسائل التواصل الاجتماعي، قال ويل نايت، وهو كاتب كبير في مجلة Wired التي تغطي الذكاء الاصطناعي، لموقع Yahoo Entertainment.
وهو يعتقد أن سهولة الوصول إلى التطبيقات وخدمات الويب القادرة على إنشاء مقاطع فيديو ومقاطع صوتية وصور خادعة تظهر وجوه المشاهير المعروفة هي عوامل مساهمة في انفجار الذكاء الاصطناعي الأخير.
وأوضح نايت: “أحد الأسباب الرئيسية هو أن التكنولوجيا اللازمة لإنشاء مقطع فيديو به صورة شخص ما مزيفة أصبحت أكثر سهولة بفضل التقدم في الذكاء الاصطناعي”. “لقد كان من الممكن إنشاء صور مزيفة عميقة حيث يمكنك لصق صورة شخص ما على شخص آخر بسهولة إلى حد ما.”
يقال إن بعض المشاهير يختارون تبني تكنولوجيا الذكاء الاصطناعي في محاولة للسيطرة على حقوق صورهم.
وقالت بريت باريس، الأستاذة المساعدة في جامعة روتجرز، والتي تدرس التزييف العميق والتلاعب بالصوت والصورة عبر الإنترنت: “في حالة الممثلين، القيمة هي تشابههم. يرى البعض منهم فائدة أكبر في الشراكة مع شيء يعتبرونه مدًا لا مفر منه”. ياهو للترفيه. “ويحاول آخرون الحصول على عقد يسعى للحصول على ضمانات ضد استخدام الذكاء الاصطناعي في المواقف التي قد يستخدمون فيها صورهم أو يستخدمون صورهم بعد وفاتهم.”
لماذا يتم استهداف الممثلين؟
“ال [Screen Actors Guild] وقال نايت عن التوقيت “إن الإضراب وثيق الصلة بالموضوع. إنه يجذب انتباه الكثير من الناس إلى الذكاء الاصطناعي داخل الصناعة وخارجها”. [of it]. لديك ممثلون يشعرون بالقلق من إمكانية نسخ صورهم والتلاعب بها واستخدامها بطرق مختلفة.”
ووافقت باريس على ذلك، مستشهدة بـ “عوامل اقتصادية سياسية خارجية، مثل إضراب SAG-AFTRA الذي يحدث الآن، ومن ثم التقدم التكنولوجي”، كعوامل محتملة قد تفسر زيادة عدد نجوم هوليود الذين يلعبون عن غير قصد في الإعلانات التي ينشئها الذكاء الاصطناعي.
يعد الذكاء الاصطناعي أحد النقاط الشائكة الرئيسية في إضراب SAG-AFTRA المستمر، والذي يقترب من علامة الثلاثة أشهر. يقاتل الممثلون حاليًا ضد استوديوهات هوليوود الكبرى من أجل الحماية من استخدام صورهم أو أصواتهم أو أدائهم دون موافقتهم أو تعويضهم. بدأ اتحاد الممثلين أيامًا في المفاوضات مع الاستوديوهات بشأن عقد جديد، بعد أن وقع الكتّاب اتفاقية مدتها ثلاث سنوات أنهت إضراب WGA، في 27 سبتمبر.
يعتقد الكثيرون أن استخدام صورة أحد المشاهير غالبًا ما يكون أداة سهلة لمجرمي الإنترنت لتضليل الجمهور أو خداع الأشخاص الضعفاء أو نشر معلومات مضللة. يستخدم المحتالون المشاهير المشهورين “لكسب ثقتك أولاً” قبل الاستفادة من ذلك لصالحهم عندما يتعلق الأمر بالتزييف العميق الناتج عن الذكاء الاصطناعي، وفقًا لمكتب Better Business Bureau.
وقال نايت إن تكنولوجيا الذكاء الاصطناعي أصبحت تدريجيًا ديمقراطية. “سيكون لديك وكلاء عديمي الضمير عبر الإنترنت سيرغبون في الحصول على أحد المشاهير لتأييد خطة طب الأسنان، مثل [what happened with] توم هانكس.”
كل ما يأتي من إضراب SAG-AFTRA يمكن أن يقدم فكرة أوضح عن اللوائح التي قد يتم وضعها لمكافحة الاستخدام غير الرسمي للذكاء الاصطناعي. من الناحية القانونية، هناك “أدوات يمكن للممثلين استخدامها… والتي من شأنها أن تشكل سابقة”، كما اقترح باريس، مثل دعاوى التشهير. “هناك قوانين ضد استخدام أشباه الناس.” في سبتمبر، المليونير المتشرد فاز النجم أنيل كابور بقضية تاريخية في محكمة هندية لحماية حقوقه الشخصية – والتي تشمل شكله وصورته وصوته – ضد إساءة الاستخدام على الوسائط الرقمية.
كيف يمكنك اكتشاف أحد هذه الإعلانات المزيفة؟
هناك العديد من السمات المميزة التي يمكن أن تساعد في الحصول على تأييد مزيف من المشاهير أو على الأقل رفع العلم الأحمر.
وقال باريس: “إنهم عادة ما يحاولون بيع منتجات لا تبدو ذات سمعة جيدة، والتي تبدو جيدة جدًا لدرجة يصعب تصديقها – علاجات معجزة، وخطط “الثراء السريع”. وعادة ما تكون رائحتها مضحكة”.
سؤال آخر يجب طرحه: هل المنتج الذي يُزعم أنهم يبيعونه يتوافق بالفعل مع شخصيتهم العامة المتصورة؟
استشهدت باريس بإعلان هانكس المزيف كمثال، والذي استخدم صورة تم إنشاؤها بواسطة الكمبيوتر لـ فيلادلفيا الممثل، وكذلك نسخة طبق الأصل من صوته، دون موافقته.
أوضح باريس: “سواء كان ما يبيعونه يبدو وكأنه شيء جيد جدًا لدرجة يصعب تصديقها أو لا يبدو منطقيًا بالنسبة لشخصية مشهورة معينة، بالإضافة إلى الإشارات الصوتية/المرئية – وادي الغرابة الغريب الذي لدينا” “لقد أصبحنا نتوقع من الصور والصوت الذي تم إنشاؤه بواسطة الذكاء الاصطناعي – هي الأشياء التي يجب البحث عنها.”
يمكن للعلامات الفنية الموجودة في مقاطع الفيديو التي تنتحل شخصية المشاهير والتي تم إنشاؤها بواسطة الذكاء الاصطناعي أن توفر أيضًا أدلة للمستهلكين الذين قد يشككون في صحة المقطع الذي يشاهدونه.
وقال نايت: “إذا كان الصوت يبدو غريبا أو إذا كانت التصرفات غريبة أو إذا كان هناك وميض في الوجه حيث يبدو متكلفة، فسأبدأ في البحث عن ذلك”. وقد تكون الشكوك المتزايدة و”تآكل فهمنا لما هو حقيقي” نتيجة غير مقصودة (أو مقصودة). “هناك علم كامل لاكتشاف الصور ومقاطع الفيديو المزيفة.”
ومع مرور الوقت، قد يكون قول ذلك أسهل من فعله.
ومع تزايد شعبية الذكاء الاصطناعي، حذر نايت من أنه “سيظل من الممكن للناس إنشاء مقاطع الفيديو المزيفة هذه ووضعها على الإنترنت. وسيكون الأمر يتعلق أكثر بمراقبتها على وسائل التواصل الاجتماعي”.
اترك ردك