في العقد الماضي، أدى نجاح الذكاء الاصطناعي إلى حماسة جامحة وادعاءات جريئة ــ على الرغم من أن المستخدمين يواجهون في كثير من الأحيان الأخطاء التي يرتكبها الذكاء الاصطناعي. ومن الممكن أن يسيء المساعد الرقمي الذي يعمل بالذكاء الاصطناعي فهم كلام شخص ما بطرق محرجة، أو قد يهلوس برنامج الدردشة الآلي بالحقائق، أو كما خبرت، قد تقوم أداة التنقل القائمة على الذكاء الاصطناعي بتوجيه السائقين عبر حقل الذرة ــ كل هذا دون تسجيل الأخطاء.
يتسامح الناس مع هذه الأخطاء لأن التكنولوجيا تجعل بعض المهام أكثر كفاءة. ومع ذلك، يدعو المؤيدون على نحو متزايد إلى استخدام الذكاء الاصطناعي ــ في بعض الأحيان بإشراف بشري محدود ــ في المجالات حيث تكون الأخطاء باهظة التكلفة، مثل الرعاية الصحية. على سبيل المثال، من شأن مشروع قانون تم تقديمه إلى مجلس النواب الأمريكي في أوائل عام 2025 أن يسمح لأنظمة الذكاء الاصطناعي بوصف الأدوية بشكل مستقل. وقد ناقش الباحثون في مجال الصحة وكذلك المشرعون منذ ذلك الحين ما إذا كان مثل هذا الوصف ممكنًا أو مستحسنًا.
ويبقى أن نرى كيف سيعمل هذا الوصف بالضبط إذا تم إقرار هذا التشريع أو تشريع مماثل. لكنه يزيد من المخاطر المتعلقة بعدد الأخطاء التي يمكن لمطوري الذكاء الاصطناعي أن يسمحوا لأدواتهم بارتكابها وما هي العواقب إذا أدت هذه الأدوات إلى نتائج سلبية – حتى وفاة المرضى.
باعتباري باحثًا يدرس الأنظمة المعقدة، أقوم بدراسة كيفية تفاعل المكونات المختلفة للنظام لإنتاج نتائج غير متوقعة. ويركز جزء من عملي على استكشاف حدود العلم ــ وبشكل أكثر تحديدا، حدود الذكاء الاصطناعي.
على مدى السنوات الخمس والعشرين الماضية، عملت في مشاريع بما في ذلك تنسيق إشارات المرور، وتحسين البيروقراطيات، والكشف عن التهرب الضريبي. وحتى عندما تكون هذه الأنظمة فعالة للغاية، فإنها لا تكون مثالية أبدًا.
بالنسبة للذكاء الاصطناعي على وجه الخصوص، قد تكون الأخطاء نتيجة حتمية لكيفية عمل الأنظمة. تشير الأبحاث التي أجراها مختبري إلى أن خصائص معينة للبيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي تلعب دورًا. ومن غير المرجح أن يتغير هذا، بغض النظر عن مقدار الوقت والجهد والتمويل الذي يوجهه الباحثون لتحسين نماذج الذكاء الاصطناعي.
لا أحد ــ ولا شيء، ولا حتى الذكاء الاصطناعي ــ مثالي
وكما قال آلان تورينج، الذي يعتبر أبو علوم الكمبيوتر، ذات مرة: “إذا كان من المتوقع أن تكون الآلة معصومة من الخطأ، فلا يمكن أن تكون ذكية أيضًا”. وذلك لأن التعلم جزء أساسي من الذكاء، وعادة ما يتعلم الناس من الأخطاء. أرى أن لعبة شد الحبل هذه بين الذكاء والعصمة تلعب دورًا في بحثي.
في دراسة نشرت في يوليو 2025، أوضحت أنا وزملائي أن تنظيم مجموعات بيانات معينة بشكل مثالي في فئات واضحة قد يكون مستحيلا. بمعنى آخر، قد يكون هناك حد أدنى من الأخطاء التي تنتجها مجموعة بيانات معينة، وذلك ببساطة بسبب حقيقة تداخل عناصر العديد من الفئات. بالنسبة لبعض مجموعات البيانات – الدعامة الأساسية للعديد من أنظمة الذكاء الاصطناعي – لن يكون أداء الذكاء الاصطناعي أفضل من الصدفة.
على سبيل المثال، النموذج الذي تم تدريبه على مجموعة بيانات تضم ملايين الكلاب، والذي يسجل فقط عمرها ووزنها وطولها، من المحتمل أن يميز كلاب الشيواوا عن الكلاب الدانمركية العظيمة بدقة تامة. ولكنها قد ترتكب أخطاء في التمييز بين مالموت ألاسكا ودوبرمان الدوبيرمان، نظرًا لأن الأفراد المختلفين من الأنواع المختلفة قد يقعون في نفس نطاق العمر والوزن والطول.
يسمى هذا التصنيف قابلية التصنيف، وقد بدأت أنا وطلابي دراسته في عام 2021. وباستخدام بيانات من أكثر من نصف مليون طالب التحقوا بالجامعة الوطنية المستقلة في المكسيك بين عامي 2008 و2020، أردنا حل مشكلة تبدو بسيطة. هل يمكننا استخدام خوارزمية الذكاء الاصطناعي للتنبؤ بالطلاب الذين سينهون شهاداتهم الجامعية في الوقت المحدد – أي في غضون ثلاث أو أربع أو خمس سنوات من بدء دراستهم، اعتمادًا على التخصص؟
لقد اختبرنا العديد من الخوارزميات الشائعة المستخدمة للتصنيف في الذكاء الاصطناعي وقمنا أيضًا بتطوير خوارزمياتنا الخاصة. لم تكن هناك خوارزمية مثالية؛ أفضلها – حتى تلك التي طورناها خصيصًا لهذه المهمة – حققت معدل دقة يبلغ حوالي 80%، مما يعني أنه تم تصنيف طالب واحد على الأقل من كل 5 طلاب بشكل خاطئ. لقد أدركنا أن العديد من الطلاب متطابقون من حيث الدرجات والعمر والجنس والحالة الاجتماعية والاقتصادية وغيرها من الميزات – ومع ذلك فإن بعضهم سينتهي في الوقت المحدد والبعض الآخر لا. في ظل هذه الظروف، لن تتمكن أي خوارزمية من تقديم تنبؤات مثالية.
قد تعتقد أن المزيد من البيانات من شأنه تحسين القدرة على التنبؤ، ولكن هذا عادة ما يأتي مع تناقص العوائد. وهذا يعني أنه، على سبيل المثال، لكل زيادة في الدقة بنسبة 1%، قد تحتاج إلى 100 ضعف البيانات. وبالتالي، لن يكون لدينا أبدًا عدد كافٍ من الطلاب لتحسين أداء نموذجنا بشكل ملحوظ.
بالإضافة إلى ذلك، قد تحدث العديد من التحولات غير المتوقعة في حياة الطلاب وأسرهم – البطالة، والوفاة، والحمل – بعد عامهم الأول في الجامعة، مما يؤثر على الأرجح على ما إذا كانوا ينهون الدراسة في الوقت المحدد. لذلك، حتى مع وجود عدد لا حصر له من الطلاب، فإن توقعاتنا ستظل تعطي أخطاء.
حدود التنبؤ
وبعبارة أكثر عمومية، فإن ما يحد من التنبؤ هو التعقيد. كلمة التعقيد تأتي من اللاتينية الضفيرة، وهو ما يعني متشابكة. تتشابك المكونات التي تشكل نظامًا معقدًا، والتفاعلات بينها هي التي تحدد ما يحدث لها وكيف تتصرف.
وبالتالي فإن دراسة عناصر النظام بمعزل عن بعضها البعض ربما تسفر عن رؤى مضللة بشأنها ــ وكذلك حول النظام ككل.
خذ على سبيل المثال سيارة تسافر في المدينة. بمعرفة السرعة التي تسير بها، من الممكن نظريًا التنبؤ بالمكان الذي ستنتهي فيه في وقت معين. لكن في حركة المرور الحقيقية، ستعتمد سرعتها على التفاعل مع المركبات الأخرى على الطريق. ونظرًا لأن تفاصيل هذه التفاعلات تظهر في الوقت الحالي ولا يمكن معرفتها مسبقًا، فإن التنبؤ بدقة بما يحدث للسيارة لا يمكن تحقيقه إلا بعد دقائق قليلة من المستقبل.
ليس مع صحتي
تنطبق هذه المبادئ نفسها على وصف الأدوية. يمكن أن يكون للحالات والأمراض المختلفة نفس الأعراض، وقد يظهر على الأشخاص الذين يعانون من نفس الحالة أو المرض أعراض مختلفة. على سبيل المثال، يمكن أن تكون الحمى ناجمة عن مرض في الجهاز التنفسي أو الجهاز الهضمي. وقد يسبب البرد السعال، ولكن ليس دائمًا.
وهذا يعني أن مجموعات بيانات الرعاية الصحية بها تداخلات كبيرة من شأنها أن تمنع الذكاء الاصطناعي من أن يكون خاليًا من الأخطاء.
ومن المؤكد أن البشر أيضا يخطئون. ولكن عندما يخطئ الذكاء الاصطناعي في تشخيص مريض، وهو ما سيحدث بالتأكيد، فإن الوضع يقع في مأزق قانوني. ليس من الواضح من أو ماذا سيكون المسؤول إذا أصيب المريض. شركات الأدوية؟ مطوري البرمجيات؟ وكالات التأمين؟ الصيدليات؟
في العديد من السياقات، لا يعد البشر ولا الآلات الخيار الأفضل لمهمة معينة. ويميل “القنطور” أو “الذكاء الهجين” ــ أي مزيج من البشر والآلات ــ إلى أن يكون أفضل من كل منهما بمفرده. يمكن للطبيب بالتأكيد استخدام الذكاء الاصطناعي لتحديد الأدوية المحتملة التي يمكن استخدامها لمرضى مختلفين، اعتمادًا على تاريخهم الطبي وتفاصيلهم الفسيولوجية وتركيبهم الجيني. يستكشف الباحثون بالفعل هذا النهج في الطب الدقيق.
لكن الفطرة السليمة والمبدأ الاحترازي
يشير هذا إلى أنه من السابق لأوانه أن يصف الذكاء الاصطناعي الأدوية دون إشراف بشري. وحقيقة أن الأخطاء قد تُدمج في التكنولوجيا قد تعني أنه عندما تكون صحة الإنسان على المحك، فإن الإشراف البشري سيكون ضروريًا دائمًا.
تم إعادة نشر هذا المقال من The Conversation، وهي منظمة إخبارية مستقلة غير ربحية تقدم لك حقائق وتحليلات جديرة بالثقة لمساعدتك على فهم عالمنا المعقد. كتب بواسطة: كارلوس جيرشينسون، جامعة بينجهامتون، جامعة ولاية نيويورك
اقرأ المزيد:
لا يعمل كارلوس غيرشينسون في أي شركة أو مؤسسة أو يستشيرها أو يمتلك أسهمًا فيها أو يتلقى تمويلًا منها قد تستفيد من هذه المقالة، ولم يكشف عن أي انتماءات ذات صلة بعد تعيينه الأكاديمي.


















اترك ردك