لقد أحدثت قدرة الذكاء الاصطناعي على معالجة وتحليل كميات هائلة من البيانات ثورة في عمليات صنع القرار، مما جعل العمليات في مجالات الرعاية الصحية والمالية والعدالة الجنائية وقطاعات أخرى من المجتمع أكثر كفاءة، وفي كثير من الحالات، أكثر فعالية.
ولكن مع هذه القوة التحويلية تأتي مسؤولية كبيرة: الحاجة إلى ضمان تطوير هذه التكنولوجيات ونشرها بطريقة عادلة ومنصفة. باختصار، يجب أن يكون الذكاء الاصطناعي عادلاً.
إن السعي لتحقيق العدالة في الذكاء الاصطناعي ليس مجرد ضرورة أخلاقية ولكنه مطلب لتعزيز الثقة والشمولية والتقدم المسؤول للتكنولوجيا. ومع ذلك، فإن ضمان عدالة الذكاء الاصطناعي يمثل تحديًا كبيرًا. علاوة على ذلك، فإن بحثي كعالم كمبيوتر يدرس الذكاء الاصطناعي يظهر أن محاولات ضمان العدالة في الذكاء الاصطناعي يمكن أن يكون لها عواقب غير مقصودة.
لماذا تعتبر العدالة في الذكاء الاصطناعي مهمة؟
لقد برزت العدالة في الذكاء الاصطناعي كمجال تركيز بالغ الأهمية للباحثين والمطورين وصانعي السياسات. فهو يتجاوز الإنجاز التقني، ويتطرق إلى الأبعاد الأخلاقية والاجتماعية والقانونية للتكنولوجيا.
ومن الناحية الأخلاقية، تعد العدالة حجر الزاوية في بناء الثقة وقبول أنظمة الذكاء الاصطناعي. ويتعين على الناس أن يثقوا في أن قرارات الذكاء الاصطناعي التي تؤثر على حياتهم ــ على سبيل المثال، خوارزميات التوظيف ــ يتم اتخاذها بشكل عادل. ومن الناحية الاجتماعية، يمكن لأنظمة الذكاء الاصطناعي التي تجسد العدالة أن تساعد في معالجة وتخفيف التحيزات التاريخية ــ على سبيل المثال، تلك ضد النساء والأقليات ــ في تعزيز الشمولية. من الناحية القانونية، يساعد تضمين العدالة في أنظمة الذكاء الاصطناعي في جعل هذه الأنظمة متوافقة مع القوانين واللوائح المناهضة للتمييز في جميع أنحاء العالم.
يمكن أن ينبع الظلم من مصدرين رئيسيين: بيانات الإدخال والخوارزميات. وقد أظهرت الأبحاث أن البيانات المدخلة يمكن أن تديم التحيز في مختلف قطاعات المجتمع. على سبيل المثال، عند التوظيف، يمكن للخوارزميات التي تعالج البيانات التي تعكس التحيزات المجتمعية أو التي تفتقر إلى التنوع أن تؤدي إلى إدامة التحيزات “مثلي”. تفضل هذه التحيزات المرشحين الذين يشبهون صناع القرار أو أولئك الموجودين بالفعل في المنظمة. عندما يتم بعد ذلك استخدام البيانات المتحيزة لتدريب خوارزمية التعلم الآلي لمساعدة صانع القرار، يمكن للخوارزمية نشر هذه التحيزات بل وتضخيمها.
لماذا العدالة في الذكاء الاصطناعي صعبة
إن العدالة أمر شخصي بطبيعتها، وتتأثر بالمنظورات الثقافية والاجتماعية والشخصية. في سياق الذكاء الاصطناعي، غالبًا ما يترجم الباحثون والمطورون وصناع السياسات العدالة إلى فكرة مفادها أن الخوارزميات لا ينبغي أن تؤدي إلى إدامة أو تفاقم التحيزات أو عدم المساواة القائمة.
ومع ذلك، فإن قياس العدالة ودمجها في أنظمة الذكاء الاصطناعي محفوف بقرارات ذاتية وصعوبات فنية. وقد اقترح الباحثون وصناع السياسات تعريفات مختلفة للعدالة، مثل التكافؤ الديموغرافي، وتكافؤ الفرص، والعدالة الفردية.
تتضمن هذه التعريفات صيغ رياضية مختلفة وفلسفات أساسية. كما أنها غالبًا ما تتعارض، مما يسلط الضوء على صعوبة تلبية جميع معايير العدالة في وقت واحد في الممارسة العملية.
وبالإضافة إلى ذلك، لا يمكن اختزال العدالة في مقياس أو مبدأ توجيهي واحد. وهو يشمل مجموعة من الاعتبارات بما في ذلك، على سبيل المثال لا الحصر، تكافؤ الفرص والمعاملة والتأثير.
التأثيرات غير المقصودة على العدالة
إن الطبيعة المتعددة الأوجه للعدالة تعني أنه يجب فحص أنظمة الذكاء الاصطناعي على كل مستوى من دورة تطويرها، بدءًا من مراحل التصميم الأولي وجمع البيانات وحتى نشرها النهائي وتقييمها المستمر. يكشف هذا التدقيق عن طبقة أخرى من التعقيد. نادراً ما يتم نشر أنظمة الذكاء الاصطناعي بمعزل عن غيرها. ويتم استخدامها كجزء من عمليات صنع القرار المعقدة والمهمة في كثير من الأحيان، مثل تقديم توصيات حول التوظيف أو تخصيص الأموال والموارد، وتخضع لقيود عديدة، بما في ذلك الأمن والخصوصية.
تُظهر الأبحاث التي أجريتها أنا وزملائي أن القيود مثل الموارد الحسابية وأنواع الأجهزة والخصوصية يمكن أن تؤثر بشكل كبير على عدالة أنظمة الذكاء الاصطناعي. على سبيل المثال، يمكن أن تؤدي الحاجة إلى الكفاءة الحسابية إلى عمليات تبسيط تتجاهل عن غير قصد أو تحريف الفئات المهمشة.
في دراستنا حول تقليم الشبكات – وهي طريقة لجعل نماذج التعلم الآلي المعقدة أصغر حجمًا وأسرع – وجدنا أن هذه العملية يمكن أن تؤثر بشكل غير عادل على مجموعات معينة. ويحدث هذا لأن عملية التقليم قد لا تأخذ في الاعتبار كيفية تمثيل المجموعات المختلفة في البيانات ومن خلال النموذج، مما يؤدي إلى نتائج متحيزة.
وبالمثل، فإن تقنيات الحفاظ على الخصوصية، على الرغم من أهميتها، يمكن أن تحجب البيانات اللازمة لتحديد وتخفيف التحيزات أو تؤثر بشكل غير متناسب على النتائج بالنسبة للأقليات. على سبيل المثال، عندما تضيف الوكالات الإحصائية ضجيجًا إلى البيانات لحماية الخصوصية، يمكن أن يؤدي ذلك إلى تخصيص غير عادل للموارد لأن الضجيج المضاف يؤثر على بعض المجموعات أكثر من غيرها. ويمكن أن يؤدي عدم التناسب هذا أيضًا إلى تحريف عمليات صنع القرار التي تعتمد على هذه البيانات، مثل تخصيص الموارد للخدمات العامة.
ولا تعمل هذه القيود بمعزل عن غيرها، بل تتقاطع بطرق تؤدي إلى تفاقم تأثيرها على العدالة. على سبيل المثال، عندما تؤدي تدابير الخصوصية إلى تفاقم التحيزات في البيانات، فإنها يمكن أن تزيد من تضخيم عدم المساواة القائمة. وهذا يجعل من المهم أن يكون لديك فهم ونهج شاملين لكل من الخصوصية والعدالة لتطوير الذكاء الاصطناعي.
الطريق إلى الأمام
إن جعل الذكاء الاصطناعي عادلا ليس بالأمر السهل، ولا توجد حلول واحدة تناسب الجميع. فهو يتطلب عملية التعلم المستمر والتكيف والتعاون. نظرًا لانتشار التحيز في المجتمع، أعتقد أن الأشخاص الذين يعملون في مجال الذكاء الاصطناعي يجب أن يدركوا أنه ليس من الممكن تحقيق العدالة الكاملة وأن يسعوا بدلاً من ذلك إلى التحسين المستمر.
يتطلب هذا التحدي التزامًا بإجراء أبحاث دقيقة وصنع سياسات مدروسة وممارسة أخلاقية. ولإنجاح هذا الأمر، سيحتاج الباحثون والمطورون ومستخدمو الذكاء الاصطناعي إلى التأكد من دمج اعتبارات العدالة في جميع جوانب مسار الذكاء الاصطناعي، بدءًا من تصوره وحتى جمع البيانات وتصميم الخوارزميات وحتى النشر وما بعده.
تم إعادة نشر هذا المقال من The Conversation، وهي منظمة إخبارية مستقلة غير ربحية تقدم لك حقائق وتحليلات جديرة بالثقة لمساعدتك على فهم عالمنا المعقد. كتب بواسطة: فرديناندو فيوريتو، جامعة فرجينيا
اقرأ أكثر:
يتلقى فرديناندو فيوريتو تمويلًا من المؤسسة الوطنية للعلوم، وجوجل، وأمازون.
اترك ردك