-
حتى الرجل الذي يدير OpenAI صانع ChatGPT قلق بشأن تأثير الذكاء الاصطناعي على انتخابات 2024.
-
مثل سام التمان أمام الكونجرس يوم الثلاثاء للإدلاء بشهادته حول المخاطر المجتمعية للذكاء الاصطناعي.
-
استعد “للمعلومات المضللة التفاعلية الفردية”.
إليك مستقبل غير بعيد يستحق التفكير فيه: عندما يواجه جو بايدن دونالد ترامب ، أو رون ديسانتيس ، أو نيكي هايلي ، أو أي مرشح آخر للجمهوريين في الانتخابات الرئاسية الأمريكية لعام 2024 ، كيف يمكننا التأكد من أن العملية برمتها لن تكون كذلك. مليئة بالمعلومات الخاطئة التي يشحنها الذكاء الاصطناعي؟
ليس جدا.
أصبح هذا واضحًا عندما ظهر الرئيس التنفيذي لشركة OpenAI ، منشئ ChatGPT ، سام ألتمان ، لأول مرة أمام الكونجرس يوم الثلاثاء لمناقشة المخاطر المحتملة للذكاء الاصطناعي.
وقال ألتمان للكونجرس: “هذا وقت رائع للعمل على الذكاء الاصطناعي”. “ولكن مع تقدم هذه التكنولوجيا ، فإننا نفهم أن الناس قلقون بشأن كيف يمكن أن تغير الطريقة التي نعيش بها. نحن أيضًا.”
كان غاري ماركوس ، أخصائي التعلم الآلي والأستاذ الفخري لعلم النفس والعلوم العصبية في جامعة نيويورك ، صريحًا أثناء شهادته حول الشكل الذي قد تبدو عليه بعض هذه التغييرات.
وقال للمشرعين “بشكل أساسي ، ستؤدي هذه الأنظمة الجديدة إلى زعزعة الاستقرار”. “يمكنهم وسيخلقون أكاذيب مقنعة على نطاق لم تشهده البشرية من قبل. سيستخدمها الغرباء للتأثير على انتخاباتنا ، وسيستخدمها المطلعون للتلاعب بأسواقنا وأنظمتنا السياسية. والديمقراطية نفسها مهددة”.
قد يبدو الدمار الذي سببته وسائل التواصل الاجتماعي في التاريخ السياسي الحديث لأمريكا وكأنه لعبة أطفال مقارنةً بالذكاء الاصطناعي.
مرحبًا بكم في عصر المعلومات المضللة الشخصية
هناك بالفعل دلائل على أن الذكاء الاصطناعي يمكن أن يساعد في التأثير على الناخبين المترددين.
يمكن للنماذج اللغوية الكبيرة التي تدعم روبوتات المحادثة مثل ChatGPT أن تتنبأ بالرأي العام بدقة ملحوظة عند تغذية أنظمة غذائية معينة لوسائل الإعلام ، وفقًا لورقة بحثية سابقة الطباعة أعدها باحثون من Google و MIT و Harvard استشهد بها السناتور جوش هاولي يوم الثلاثاء.
في سياق الانتخابات ، يمكن أن يؤدي ذلك إلى مواقف تأخذ فيها الشركات أو الحكومة أو الكيانات الأجنبية هذه التنبؤات الدقيقة للرأي العام وتستخدمها “لضبط الاستراتيجيات” التي تؤثر على طريقة تصرف الناخب ، حسب قول هولي.
وقال هاولي إنه حتى التكنولوجيا “المبتذلة مثل بحث Google” يمكن أن تؤثر على الناخبين المترددين الذين يحاولون الحصول على معلومات في الأيام الأخيرة من الانتخابات ، بالنظر إلى ما وصفه بـ “التأثير الهائل” في ترتيب مقالات بحث Google.
وأضاف: “هذه بالطبع هي أوامر من حيث الحجم أقوى بكثير وأكثر أهمية بكثير”.
أقر ألتمان بأن “القدرة العامة لهذه النماذج على التلاعب ، والإقناع ، وتقديم معلومات مضللة تفاعلية فردية” هي أحد مجالات اهتمامه الأكبر.
ربما يكون الأمر الأكثر إثارة للقلق هو أن روبوتات المحادثة قد تتمتع بالقدرة على تغيير المعتقدات السياسية للأشخاص تمامًا إذا تم التلاعب بها لإعطاء الناس معلومات خاطئة.
استشهد غاري ماركوس بمقال نشرته مؤخرًا صحيفة وول ستريت جورنال بعنوان “مساعدة! تم تغيير معتقداتي السياسية بواسطة روبوت الدردشة!” ، والتي توضح بالتفصيل كيف “قد لا يعرف الناس حتى أنهم يتأثرون”.
وأظهر رئيس اللجنة الفرعية السناتور ريتشارد بلومنثال في بداية الجلسة مدى سهولة تهدئة الناخبين في شعور زائف بالأمان. شغّل مقطعًا صوتيًا بدا مثله تمامًا ، لكنه كان مجرد ذكاء اصطناعي مدرب على خطبه.
حتى ألتمان يعتقد أن الذكاء الاصطناعي سيجعل البشر أغبياء
قال ألتمان إن البشر في الوقت الحالي يفهمون أن الذكاء الاصطناعي لا يزال في مهده ويدركون أن الروبوتات مثل ChatGPT ترتكب أخطاء بشكل روتيني.
ما هو أقل ثقة منه هو أن المستخدمين سيستمرون في التحقق مرة أخرى من إجابات ChatGPT مع تحسن نموذجها الأساسي.
قال ألتمان: “أخشى أنه كلما تحسنت النماذج بشكل أفضل ، يمكن أن يكون لدى المستخدمين قدر أقل من عملية التفكير التمييزي الخاصة بهم”. بعبارة أخرى ، سيشجع الذكاء الاصطناعي القوي ولكن غير الكامل البشر الكسالى على الاستعانة بمصادر خارجية لتفكيرهم النقدي – على حساب الحقيقة والديمقراطية.
في السيناريوهات المشحونة ، مثل الانتخابات الرئاسية ، يكون هامش الخطأ صفراً.
تم استدعاء Altman بشكل صحيح (ومصلحًا ذاتيًا) أثناء الجلسة لتنظيم الذكاء الاصطناعي ، بما في ذلك اقتراح أن المحتوى الذي يتم إنشاؤه بواسطة AI يتم تمييزه بوضوح.
لن ينجح هذا إلا إذا تم اتخاذ إجراء سريع. أشار ماركوس عن حق إلى أننا “تصرفنا ببطء شديد مع وسائل التواصل الاجتماعي” في الانتخابات السابقة. نفس البطء لن يوقفه في عالم يركض لاحتضان ChatGPT.
اقرأ المقال الأصلي على موقع Business Insider
اترك ردك