بوسطن (ا ف ب) – لا توجد تكنولوجيا منذ الانشطار النووي ستشكل مستقبلنا الجماعي تمامًا مثل الذكاء الاصطناعي، لذلك فإن أنظمة الذكاء الاصطناعي ذات الأهمية القصوى هي آمنة ومأمونة وجديرة بالثقة ومسؤولة اجتماعيًا.
ولكن على النقيض من القنبلة الذرية، فإن هذا التحول النموذجي كان مدفوعا بالكامل تقريبا بقطاع التكنولوجيا الخاص، الذي ظل مقاوما للتنظيم، على أقل تقدير. إن المليارات على المحك، مما يجعل مهمة إدارة بايدن المتمثلة في وضع معايير لسلامة الذكاء الاصطناعي تحديًا كبيرًا.
ولتحديد المعايير، استعانت بوكالة فيدرالية صغيرة، هي المعهد الوطني للمعايير والتكنولوجيا. تحدد أدوات ومقاييس NIST المنتجات والخدمات بدءًا من الساعات الذرية وحتى تكنولوجيا أمن الانتخابات والمواد النانوية.
على رأس جهود الوكالة في مجال الذكاء الاصطناعي إلهام طباسي، كبيرة مستشاري الذكاء الاصطناعي في NIST. لقد قامت برعاية إطار إدارة مخاطر الذكاء الاصطناعي الذي تم نشره قبل 12 شهرًا والذي وضع الأساس لأمر بايدن التنفيذي الصادر في 30 أكتوبر بشأن الذكاء الاصطناعي. وقد صنفت مخاطر مثل التحيز ضد غير البيض والتهديدات للخصوصية.
جاءت تباسي، المولودة في إيران، إلى الولايات المتحدة في عام 1994 للحصول على درجة الماجستير في الهندسة الكهربائية وانضمت إلى المعهد الوطني للمعايير والتكنولوجيا بعد فترة وجيزة. وهي المهندسة الرئيسية للمعيار الذي يستخدمه مكتب التحقيقات الفيدرالي لقياس جودة صورة بصمات الأصابع.
تم تحرير هذه المقابلة مع طباسي من أجل الطول والوضوح.
س: تتمتع تقنيات الذكاء الاصطناعي الناشئة بقدرات لا يفهمها منشئوها. ولا يوجد حتى مفردات متفق عليها، فالتكنولوجيا جديدة جدًا. لقد أكدت على أهمية إنشاء معجم عن الذكاء الاصطناعي. لماذا؟
ج: كان معظم عملي في مجال الرؤية الحاسوبية والتعلم الآلي. وهناك أيضاً كنا في حاجة إلى معجم مشترك لتجنب التحول بسرعة إلى خلاف. مصطلح واحد يمكن أن يعني أشياء مختلفة لأشخاص مختلفين. يعد التحدث فيما بيننا أمرًا شائعًا بشكل خاص في المجالات متعددة التخصصات مثل الذكاء الاصطناعي.
سؤال: لقد قلت إن نجاح عملك يحتاج إلى مدخلات ليس فقط من علماء الكمبيوتر والمهندسين، ولكن أيضًا من المحامين وعلماء النفس والفلاسفة.
ج: أنظمة الذكاء الاصطناعي هي أنظمة اجتماعية تقنية بطبيعتها، وتتأثر بالبيئات وظروف الاستخدام. ويجب اختبارها في ظروف العالم الحقيقي لفهم المخاطر والآثار. لذا، نحن بحاجة إلى علماء إدراك، وعلماء اجتماع، ونعم، فلاسفة.
سؤال: هذه المهمة مهمة صعبة بالنسبة لوكالة صغيرة تابعة لوزارة التجارة، وصفتها صحيفة واشنطن بوست بأنها “تعاني من نقص التمويل ونقص الموظفين”. كم عدد الأشخاص في NIST الذين يعملون على هذا؟
ج: أولاً، أود أن أقول إننا في NIST لدينا تاريخ مذهل في التعامل مع مجتمعات واسعة. عند تجميع إطار مخاطر الذكاء الاصطناعي، سمعنا من أكثر من 240 منظمة متميزة وحصلنا على ما يقرب من 660 مجموعة من التعليقات العامة. وفي جودة الإخراج والأثر، لا نبدو صغاراً. لدينا أكثر من اثني عشر شخصًا في الفريق ونتوسع.
س: هل ستنمو ميزانية NIST من 1.6 مليار دولار حاليًا في ضوء مهمة الذكاء الاصطناعي؟
ج: يقوم الكونجرس بكتابة الشيكات لنا ونحن ممتنون لدعمه.
س: يمنحك الأمر التنفيذي مهلة حتى شهر يوليو لإنشاء مجموعة أدوات لضمان سلامة الذكاء الاصطناعي وموثوقيته. أفهم أنك وصفت ذلك بأنه “موعد نهائي شبه مستحيل” في مؤتمر الشهر الماضي.
ج: نعم، لكنني أضفت سريعًا أن هذه ليست المرة الأولى التي نواجه فيها هذا النوع من التحدي، وأن لدينا فريقًا رائعًا وملتزمًا ومتحمسًا. أما بالنسبة للموعد النهائي، فليس الأمر وكأننا بدأنا من الصفر. في شهر يونيو، قمنا بتشكيل مجموعة عمل عامة تركز على أربع مجموعات مختلفة من الإرشادات، بما في ذلك مصادقة المحتوى الاصطناعي.
س: قال أعضاء لجنة العلوم والتكنولوجيا بمجلس النواب في رسالة الشهر الماضي إنهم علموا أن المعهد الوطني للمعايير والتكنولوجيا يعتزم تقديم منح أو جوائز من خلال معهد جديد لسلامة الذكاء الاصطناعي – مما يشير إلى الافتقار إلى الشفافية. ج: في الواقع، نحن نستكشف خيارات عملية تنافسية لدعم فرص البحث التعاوني. إن استقلالنا العلمي مهم جدًا بالنسبة لنا. بينما ندير عملية مشاركة واسعة النطاق، فإننا المؤلفون النهائيون لكل ما ننتجه. نحن لا نفوض أبدا لشخص آخر.
س: من المحتمل أن يثير التحالف الذي تم إنشاؤه لمساعدة معهد سلامة الذكاء الاصطناعي جدلاً بسبب مشاركة الصناعة. ما الذي يجب أن يوافق عليه أعضاء الكونسورتيوم؟
ج: لقد نشرنا نموذجًا لهذه الاتفاقية على موقعنا الإلكتروني في نهاية شهر ديسمبر. الانفتاح والشفافية هي السمة المميزة بالنسبة لنا. القالب موجود هناك.
س: كان إطار مخاطر الذكاء الاصطناعي طوعيًا ولكن الأمر التنفيذي يفرض بعض الالتزامات على المطورين. ويتضمن ذلك تقديم نماذج واسعة النطاق للفريق الأحمر الحكومي (اختبار المخاطر ونقاط الضعف) بمجرد وصولها إلى عتبة معينة من حيث الحجم والقدرة الحاسوبية. هل سيكون NIST مسؤولاً عن تحديد النماذج التي ستنضم إلى الفريق الأحمر؟
ج: مهمتنا هي تطوير علوم القياس والمعايير اللازمة لهذا العمل. وسيشمل ذلك بعض التقييمات. هذا شيء قمنا به لخوارزميات التعرف على الوجوه. أما بالنسبة للمهام (الفريق الأحمر)، فلن يقوم NIST بأي من هذه الأشياء. مهمتنا هي مساعدة الصناعة على تطوير معايير سليمة تقنيًا وصالحة علميًا. نحن وكالة غير تنظيمية، محايدة وموضوعية.
س: يمكن أن تختلف كيفية تدريب أنظمة الذكاء الاصطناعي والحواجز الموضوعة عليها بشكل كبير. وفي بعض الأحيان كانت ميزات مثل الأمن السيبراني تأتي في مرحلة لاحقة. كيف نضمن تقييم المخاطر وتحديدها بدقة – خاصة عندما لا نعرف ما هي النماذج المعلنة التي تم التدريب عليها؟
ج: في إطار إدارة مخاطر الذكاء الاصطناعي، توصلنا إلى تصنيف من أنواع الجدارة بالثقة، مع التشديد على أهمية معالجته أثناء التصميم والتطوير والنشر – بما في ذلك المراقبة والتقييمات المنتظمة خلال دورات حياة أنظمة الذكاء الاصطناعي. لقد تعلم الجميع أننا لا نستطيع تحمل تكاليف محاولة إصلاح أنظمة الذكاء الاصطناعي بعد أن تصبح قيد الاستخدام. ويجب أن يتم ذلك في أقرب وقت ممكن.
ونعم، يعتمد الكثير على حالة الاستخدام. خذ التعرف على الوجه. إنه شيء واحد إذا كنت أستخدمه لفتح هاتفي. تلعب مجموعة مختلفة تمامًا من متطلبات الأمان والخصوصية والدقة دورًا عندما تستخدمها جهات إنفاذ القانون، على سبيل المثال، لمحاولة حل جريمة ما. المفاضلة بين الراحة والأمان، والتحيز والخصوصية – كلها تعتمد على سياق الاستخدام.
اترك ردك