الحجم وحواجز الحماية والخطوات تجاه عملاء الذكاء الاصطناعي

أقوم بإجراء أبحاث حول التقاطع بين الذكاء الاصطناعي ومعالجة اللغة الطبيعية والتفكير البشري كمدير لمختبر تطوير التفكير البشري والآلاتي في جامعة جنوب فلوريدا. أقوم أيضًا بتسويق هذا البحث في شركة ناشئة تعمل بالذكاء الاصطناعي توفر أداة فحص الثغرات الأمنية لنماذج اللغة.

ومن وجهة نظري، لاحظت تطورات كبيرة في مجال نماذج لغة الذكاء الاصطناعي في عام 2024، سواء في مجال البحث أو الصناعة.

ولعل أكثرها إثارة هو قدرات النماذج اللغوية الأصغر، ودعم معالجة هلوسة الذكاء الاصطناعي، وأطر تطوير عملاء الذكاء الاصطناعي.

الذكاء الاصطناعي الصغير يُحدث ضجة كبيرة

في قلب منتجات الذكاء الاصطناعي التوليدية المتاحة تجاريًا مثل ChatGPT توجد نماذج لغوية كبيرة، أو LLMs، والتي يتم تدريبها على كميات هائلة من النصوص وتنتج لغة مقنعة شبيهة بالبشر. يتم قياس حجمها بشكل عام من خلال المعلمات، وهي القيم الرقمية التي يشتقها النموذج من بيانات التدريب الخاصة به. تحتوي النماذج الأكبر حجمًا، مثل تلك التي تنتجها شركات الذكاء الاصطناعي الكبرى، على مئات المليارات من المعلمات.

هناك تفاعل متكرر بين نماذج اللغات الكبيرة ونماذج اللغات الأصغر، والذي يبدو أنه قد تسارع في عام 2024.

أولاً، تقوم المؤسسات التي تمتلك معظم الموارد الحسابية بتجربة وتدريب نماذج لغوية أكبر وأكثر قوة بشكل متزايد. ينتج عن ذلك إمكانات جديدة كبيرة لنماذج اللغة، ومعايير مرجعية، ومجموعات تدريب وتدريبات أو حيل تحفيزية. وفي المقابل، يتم استخدامها لصنع نماذج لغوية أصغر – في حدود 3 مليارات معلمة أو أقل – والتي يمكن تشغيلها على إعدادات كمبيوتر أقل تكلفة، وتتطلب طاقة وذاكرة أقل للتدريب، ويمكن ضبطها بدقة ببيانات أقل.

ليس من المستغرب إذن أن المطورين قد أطلقوا مجموعة من نماذج اللغات الصغيرة القوية – على الرغم من أن تعريف الصغيرة يتغير باستمرار: Phi-3 وPhi-4 من Microsoft، وLlama-3.2 1B و3B، وQwen2-VL-2B هي مجرد بعض الأمثلة.

يمكن تخصيص نماذج اللغة الأصغر هذه لمهام أكثر تحديدًا، مثل التلخيص السريع لمجموعة من التعليقات أو التحقق من صحة النص مقابل مرجع محدد. يمكنهم العمل مع أبناء عمومتهم الأكبر حجمًا لإنتاج أنظمة هجينة قوية بشكل متزايد.

وصول أوسع

إن زيادة الوصول إلى نماذج لغوية ذات قدرة عالية، كبيرة وصغيرة، يمكن أن تكون نعمة ونقمة. نظرًا لوجود العديد من الانتخابات المهمة في جميع أنحاء العالم في عام 2024، كان إغراء إساءة استخدام النماذج اللغوية مرتفعًا.

يمكن أن تمنح نماذج اللغة المستخدمين الضارين القدرة على إنشاء منشورات على وسائل التواصل الاجتماعي والتأثير بشكل مخادع على الرأي العام. وكان هناك قدر كبير من القلق بشأن هذا التهديد في عام 2024، نظرا لأنه كان عاما انتخابيا في العديد من البلدان.

وبالفعل، طلب صوت مزيف للرئيس جو بايدن من الناخبين الديمقراطيين في نيو هامبشاير البقاء في منازلهم. اضطرت شركة OpenAI إلى التدخل لتعطيل أكثر من 20 عملية وشبكة خادعة حاولت استخدام نماذجها في حملات خادعة. تم إنشاء مقاطع فيديو وميمات مزيفة ومشاركتها بمساعدة أدوات الذكاء الاصطناعي.

على الرغم من القلق المحيط بالمعلومات المضللة التي يعتمدها الذكاء الاصطناعي، فإنه ليس من الواضح بعد مدى تأثير هذه الجهود فعليا على الرأي العام والانتخابات الأمريكية. ومع ذلك، أصدرت الولايات الأمريكية قدرًا كبيرًا من التشريعات في عام 2024 تنظم استخدام الذكاء الاصطناعي في الانتخابات والحملات الانتخابية.

الروبوتات التي تسيء التصرف

بدأت جوجل في تضمين نظرة عامة على الذكاء الاصطناعي في نتائج البحث الخاصة بها، مما أدى إلى بعض النتائج التي كانت خاطئة بشكل مضحك ومن الواضح – إلا إذا كنت تستمتع بالغراء في البيتزا الخاصة بك. ومع ذلك، قد تكون النتائج الأخرى خاطئة بشكل خطير، كما هو الحال عندما اقترح خلط المبيض والخل لتنظيف ملابسك.

نماذج اللغة الكبيرة، كما يتم تنفيذها بشكل شائع، تكون عرضة للهلوسة. وهذا يعني أنه يمكنهم ذكر أشياء خاطئة أو مضللة، غالبًا بلغة واثقة. على الرغم من أنني وآخرون نتفق باستمرار على هذا الأمر، إلا أن عام 2024 لا يزال يشهد تعلم العديد من المنظمات عن مخاطر هلوسة الذكاء الاصطناعي بالطريقة الصعبة.

على الرغم من الاختبارات الكبيرة، لعب برنامج الدردشة الآلي دور كاهن كاثوليكي يدعو إلى المعمودية عبر جاتوريد. قالت إحدى برامج الدردشة الآلية التي تقدم المشورة بشأن قوانين ولوائح مدينة نيويورك بشكل غير صحيح إنه “من القانوني لصاحب العمل أن يطرد عاملة تشتكي من التحرش الجنسي، أو لا تكشف عن حملها، أو ترفض قص شعرها”. وقد نسي نموذج OpenAI القادر على الكلام من كان عليه التحدث واستجاب للإنسان بصوته.

ولحسن الحظ، شهد عام 2024 أيضًا طرقًا جديدة للتخفيف من هلوسة الذكاء الاصطناعي والتعايش معها. تعمل الشركات والباحثون على تطوير أدوات للتأكد من أن أنظمة الذكاء الاصطناعي تتبع قواعد معينة قبل النشر، بالإضافة إلى بيئات لتقييمها. تقوم ما يسمى بأطر الحماية بفحص مدخلات ومخرجات نماذج اللغة الكبيرة في الوقت الفعلي، وإن كان ذلك غالبًا باستخدام طبقة أخرى من نماذج اللغات الكبيرة.

وتسارعت وتيرة الحديث حول تنظيم الذكاء الاصطناعي، مما دفع كبار اللاعبين في مجال النماذج اللغوية الكبيرة إلى تحديث سياساتهم بشأن توسيع نطاق الذكاء الاصطناعي وتسخيره بشكل مسؤول.

ولكن على الرغم من أن الباحثين يجدون باستمرار طرقًا لتقليل الهلوسة، إلا أنه في عام 2024، أظهرت الأبحاث بشكل مقنع أن هلوسة الذكاء الاصطناعي ستكون موجودة دائمًا بشكل ما. وقد تكون سمة أساسية لما يحدث عندما يكون لدى الكيان موارد حسابية ومعلوماتية محدودة. ففي نهاية المطاف، حتى البشر معروفون بأنهم يخطئون التذكر بثقة ويذكرون الأكاذيب من وقت لآخر.

صعود الوكلاء

لا تزال النماذج اللغوية الكبيرة، خاصة تلك المدعومة بأنواع مختلفة من بنية المحولات، تقود أهم التطورات في مجال الذكاء الاصطناعي. على سبيل المثال، يستخدم المطورون نماذج لغوية كبيرة ليس فقط لإنشاء روبوتات الدردشة، بل لتكون بمثابة أساس لوكلاء الذكاء الاصطناعي. ظهر مصطلح “الذكاء الاصطناعي الوكيل” على الساحة في عام 2024، حتى أن بعض النقاد أطلقوا عليه اسم الموجة الثالثة من الذكاء الاصطناعي.

لفهم ماهية وكيل الذكاء الاصطناعي، فكر في برنامج الدردشة الآلي الموسع بطريقتين: أولاً، امنحه إمكانية الوصول إلى الأدوات التي توفر القدرة على اتخاذ الإجراءات. قد تكون هذه هي القدرة على الاستعلام عن محرك بحث خارجي، أو حجز رحلة طيران، أو استخدام الآلة الحاسبة. ثانيًا، امنحها المزيد من الاستقلالية، أو القدرة على اتخاذ المزيد من القرارات بمفردها.

على سبيل المثال، قد يكون برنامج الدردشة الآلي المخصص للسفر والمزود بالذكاء الاصطناعي قادرًا على إجراء بحث عن الرحلات الجوية بناءً على المعلومات التي تقدمها له، ولكن قد يقوم وكيل السفر المجهز بالأدوات بتخطيط خط سير رحلة كامل، بما في ذلك العثور على الأحداث وحجز الحجوزات وإضافتها إلى تقويم.

في عام 2024، ظهرت أطر عمل جديدة لتطوير وكلاء الذكاء الاصطناعي. على سبيل المثال لا الحصر، تم إصدار أو تحسين LangGraph وCrewAI وPhiData وAutoGen/Magentic-One في عام 2024.

بدأت الشركات للتو في اعتماد وكلاء الذكاء الاصطناعي. تعتبر أطر تطوير عوامل الذكاء الاصطناعي جديدة وتتطور بسرعة. علاوة على ذلك، لا تزال مخاطر الأمن والخصوصية والهلوسة تشكل مصدر قلق.

لكن محللي السوق العالمية يتوقعون أن يتغير هذا: تخطط 82% من المؤسسات التي شملتها الدراسة لاستخدام الوكلاء في غضون سنة إلى ثلاث سنوات، ومن المرجح أن تتبنى 25% من جميع الشركات التي تستخدم حاليًا الذكاء الاصطناعي التوليدي وكلاء الذكاء الاصطناعي في عام 2025.

تم إعادة نشر هذا المقال من The Conversation، وهي منظمة إخبارية مستقلة غير ربحية تقدم لك حقائق وتحليلات جديرة بالثقة لمساعدتك على فهم عالمنا المعقد. كتب بواسطة: جون ليكاتو، جامعة جنوب فلوريدا

اقرأ المزيد:

جون ليكاتو هو مؤسس ومالك شركة ناشئة للذكاء الاصطناعي تدعى Actualization AI, LLC. ويتلقى التمويل من مختلف الوكالات الفيدرالية، بما في ذلك المؤسسة الوطنية للعلوم، ومكتب أبحاث الجيش، ومكتب القوات الجوية للبحث العلمي، ومختبر أبحاث القوات الجوية.

Exit mobile version