إن إنشاء DeepFakes الواقعية أصبح أسهل من أي وقت مضى. قد يستغرق القتال أكثر من الذكاء الاصطناعي

واشنطن (AP) – يرن الهاتف. إنه وزير الدولة الدعوة. أم أنها؟

بالنسبة إلى المطلعين على واشنطن ، لم يعد الرؤية والسمع مؤمنين ، وذلك بفضل سلسلة من الحوادث الأخيرة التي تنطوي على انتحال شخصية كبار المسؤولين في إدارة الرئيس دونالد ترامب.

تأتي المزيفات الرقمية لشركة Corporate America ، أيضًا ، حيث تستخدم العصابات الجنائية والمتسللين المرتبطة بالخصوم بما في ذلك كوريا الشمالية الفيديو والصوت الاصطناعي لانتحال شخصية المديرين التنفيذيين والمرشحين للوظائف منخفضة المستوى للوصول إلى الأنظمة الحرجة أو أسرار الأعمال.

بفضل التقدم في الذكاء الاصطناعي ، يكون خلق DeepFakes واقعيًا أسهل من أي وقت مضى ، مما يسبب مشاكل أمنية للحكومات والشركات والأفراد وجعل الثقة الأكثر قيمة في العصر الرقمي.

سيتطلب الرد على التحدي قوانين ، ومحو الأمية الرقمية الأفضل والحلول الفنية التي تحارب الذكاء الاصطناعي مع المزيد من الذكاء الاصطناعي.

وقال فيجاي بالاسوبرامانيان ، الرئيس التنفيذي ومؤسس شركة Pindrop Security في شركة Pindrop Security: “كبشر ، نحن معرضون بشكل ملحوظ للخداع”. لكنه يعتقد أن حلول تحدي Deepfakes قد تكون في متناول اليد: “سنعاد”.

تصبح الذكاء الاصطناعي Deepfakes تهديدًا للأمن القومي

هذا الصيف ، استخدم شخص ما منظمة العفو الدولية لإنشاء مجموعة كبيرة من وزير الخارجية ماركو روبيو في محاولة للوصول إلى وزراء الخارجية ، وعضو مجلس الشيوخ الأمريكي وحاكمًا على النص والبريد الصوتي وتطبيق مراسلة الإشارة.

في مايو ، قام شخص ما بانتحال شخصية أركان ترامب ، سوزي ويلز.

ظهرت روبيو المزيفة الأخرى في Deepfake في وقت سابق من هذا العام ، قائلاً إنه يريد قطع وصول أوكرانيا إلى خدمة الإنترنت من Elon Musk. حكومة أوكرانيا في وقت لاحق دحضت المطالبة الخاطئة.

الآثار المترتبة على الأمن القومي ضخمة: قد يناقش الأشخاص الذين يعتقدون أنهم يتحدثون مع روبيو أو Wiles ، على سبيل المثال ، معلومات حساسة حول المفاوضات الدبلوماسية أو الإستراتيجية العسكرية.

وقال كيني تشان ، الرئيس التنفيذي لشركة الأمن السيبراني ، عن الدوافع المحتملة: “أنت إما تحاول استخراج أسرار حساسة أو معلومات تنافسية أو تتبع الوصول ، إلى خادم بريد إلكتروني أو شبكة حساسة أخرى”.

يمكن أن تهدف الوسائط الاصطناعية أيضًا إلى تغيير السلوك. في العام الماضي ، تلقى الناخبون الديمقراطيون في نيو هامبشاير روبوكال يحثهم على عدم التصويت في الانتخابات التمهيدية للولاية. بدا الصوت الموجود على المكالمة بشكل مثير للريبة مثل الرئيس آنذاك جو بايدن ولكن تم إنشاؤه بالفعل باستخدام الذكاء الاصطناعي.

إن قدرتهم على الخداع تجعل الذكاء العميق سلاحًا قويًا للجهات الفاعلة الأجانب. استخدمت كل من روسيا والصين التضليل والدعاية الموجهة إلى الأميركيين كوسيلة لتقويض الثقة في التحالفات والمؤسسات الديمقراطية.

قال ستيفن كرامر ، المستشار السياسي الذي اعترف بإرسال بايدن روبوكالز المزيفة ، إنه يريد إرسال رسالة عن المخاطر التي تطرحها على النظام السياسي الأمريكي. تم تبرئة كرامر الشهر الماضي من تهم قمع الناخبين وانتحال شخصية مرشح.

قال كرامر: “لقد فعلت ما فعلته مقابل 500 دولار”. “هل يمكنك أن تتخيل ماذا سيحدث إذا قررت الحكومة الصينية القيام بذلك؟”

يستهدف المحتالون الصناعة المالية مع DeepFakes

إن توافر وتطور البرامج الأكبر يعني أن DeepFakes يستخدم بشكل متزايد لتجسس الشركات والاحتيال على متن تنوع الحديقة.

وقالت جينيفر إوبانك ، نائبة مدير وكالة المخابرات المركزية الأمريكية التي عملت على الأمن السيبراني والتهديدات الرقمية: “الصناعة المالية موجودة في فريق Crosshairs”. “حتى الأفراد الذين يعرفون بعضهم البعض كانوا مقتنعين بتحويل مبالغ كبيرة من المال.”

في سياق تجسس الشركات ، يمكن استخدامها لانتحال شخصية المديرين التنفيذيين الذين يطلبون من الموظفين تسليم كلمات المرور أو أرقام التوجيه.

يمكن أن تسمح DeepFakes أيضًا للمحتالين بالتقدم للوظائف – وحتى القيام بها – تحت هوية مفترضة أو مزيفة. بالنسبة للبعض ، هذه طريقة للوصول إلى الشبكات الحساسة ، أو لسرقة الأسرار أو لتثبيت رانسومواري. يريد آخرون فقط العمل وقد يعملون بعض الوظائف المماثلة في شركات مختلفة في نفس الوقت.

قالت السلطات في الولايات المتحدة إنه تم إرسال الآلاف من الكوريين الشماليين الذين لديهم مهارات تكنولوجيا المعلومات للعيش في الخارج ، وذلك باستخدام الهويات المسروقة للحصول على وظائف في شركات التكنولوجيا في الولايات المتحدة وأماكن أخرى. يحصل العمال على شبكات الشركة بالإضافة إلى راتب. في بعض الحالات ، يقوم العمال بتثبيت برامج الفدية التي يمكن استخدامها لاحقًا لابتزاز المزيد من المال.

ولدت المخططات مليارات الدولارات للحكومة الكورية الشمالية.

في غضون ثلاث سنوات ، من المتوقع أن يكون ما يصل إلى 1 من كل 4 طلبات عمل مزيفة ، وفقًا للبحث عن شركة Adaptive Security ، وهي شركة للأمن السيبراني.

وقال برايان لونج ، الرئيس التنفيذي لشركة Advertive: “لقد دخلنا حقبة حيث يمكن لأي شخص لديه كمبيوتر محمول والوصول إلى نموذج مفتوح المصدر أن ينتحل شخصية شخص حقيقي بشكل مقنع”. “لم يعد الأمر يتعلق بالأنظمة المتوقعة – إنه يتعلق بالثقة.”

ينشر الخبراء منظمة العفو الدولية للقتال ضد الذكاء الاصطناعي

يبحث الباحثون وخبراء السياسة العامة وشركات التكنولوجيا الآن في أفضل الطرق لمعالجة التحديات الاقتصادية والسياسية والاجتماعية التي تشكلها DeepFakes.

يمكن أن تتطلب اللوائح الجديدة من شركات التكنولوجيا بذل المزيد من الجهد لتحديد وعلامة العلامات على منصاتها. يمكن للمشرعين أيضًا فرض عقوبات أكبر على أولئك الذين يستخدمون التكنولوجيا الرقمية لخداع الآخرين – إذا كان يمكن القبض عليهم.

يمكن أن تعزز استثمارات أكبر في محو الأمية الرقمية مناعة الأشخاص للخداع عبر الإنترنت من خلال تعليمهم طرقًا لاكتشاف الوسائط المزيفة وتجنب الوقوع في الفريسة للمخادعين.

قد تكون أفضل أداة لصيد الذكاء الاصطناعى هي برنامج آخر من الذكاء الاصطناعي ، أحدهما تم تدريبه على استنشاق العيوب الصغيرة في Deepfakes التي من شأنها أن لا يلاحظها أحد.

تحلل أنظمة مثل Pindrop الملايين من نقاط البيانات في خطاب أي شخص لتحديد المخالفات بسرعة. يمكن استخدام النظام أثناء المقابلات الوظيفية أو مؤتمرات الفيديو الأخرى لاكتشاف ما إذا كان الشخص يستخدم برنامج الاستنساخ الصوتي ، على سبيل المثال.

قد تكون البرامج المماثلة في يوم من الأيام شائعة ، حيث تعمل في الخلفية بينما يتحدث الأشخاص مع الزملاء والأحباء عبر الإنترنت. قال بالاسوبرامانيان ، الرئيس التنفيذي لشركة Pindrop ، إن Deepfakes قد يذهب إلى طريق البريد الإلكتروني العشوائي عبر البريد الإلكتروني ، وهو التحدي التكنولوجي الذي هدد ذات مرة برفع فائدة البريد الإلكتروني.

وقال “يمكنك أن تأخذ وجهة النظر الهزيمة والقول إننا سنكون خاضعة للتضليل”. “لكن هذا لن يحدث.”

Exit mobile version