استكاملا لكورس الذكاء الاصطناعى، سنبدأ اليوم بالتعرض للذكاء الاصطناعي من وجهه نظر مختلفة، وهى ومناقشة مفاهيم:
العدالة و التحيز في الذكاء الاصطناعي
العدالة في الذكاء الاصطناعي (Fairness in AI)
يشير التحيز (Bias) في أنظمة الذكاء الاصطناعي إلى الأخطاء المنهجية أو الأحكام المسبقة التي يمكن أن تؤدي إلى نتائج غير عادلة أو تمييزية أو غير دقيقة. يمكن أن تنبع هذه التحيزات من مصادر مختلفة، مثل البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي، أو الخوارزميات نفسها، أو القرارات التي يتخذها مطورو الذكاء الاصطناعي.
التحيز في الذكاء الاصطناعي ينبع من العيوب الموجودة في حضارتنا. البيانات التاريخية التي نوفرها لنماذج الذكاء الاصطناعي مليئة بالظلم والتحيزات غير المعالجة. “يتعلم” الذكاء الاصطناعي هذه السلوكيات ويصبح متحيزًا.
يقوم مطورو الذكاء الاصطناعي بتطبيق الخوارزميات (AI algorithms) دون النظر في القضايا الأخلاقية، مما يؤدي إلى عواقب غير مقصودة، غالبًا ضد الأشخاص ذوي البشرة الملونة. مع ذلك، فإن إيجاد حلول لهذه المشكلات غالبًا ما يكون أكثر تعقيدًا. دعونا نستعرض بعض الحالات التي حدث فيها ذلك وما زالت تحدث.
مصادر التحيز في الذكاء الاصطناعي (Sources of Bias in AI)
بيانات تدريب متحيزة (Biased Training Data)
إذا كانت البيانات المستخدمة لتدريب نموذج الذكاء الاصطناعي لا تمثل السكان بأكملهم أو تحتوي على تحيزات تاريخية، فقد يتعلم النموذج هذه التحيزات ويستمر في تطبيقها.
على سبيل المثال، نظام التعرف على الوجوه (Facial Recognition System) الذي تم تدريبه أساسًا على صور لأشخاص ذوي بشرة فاتحة قد يؤدي أداءً سيئًا مع الأشخاص ذوي البشرة الداكنة. وقد ظهر ذلك في بعض برمجيات التعرف على الوجه المبكرة التي كانت لديها معدلات خطأ أعلى مع الأشخاص ذوي البشرة الملونة.
مثال آخر يظهر عند إنشاء الصور أو الفيديوهات هو تصوير الذكاء الاصطناعي للوجوه الأفريقية.
- Top Prompt: African kid happy smiling close up Pixar 3d
- Bottom Prompt: Kid happy smiling close up Pixar 3d
عندما نحدد أننا نريد شخصية أفريقية، يتم غالبًا تصويرهم كفقراء، متسخين، أو يعانون من سوء التغذية، بينما يُظهر الأوروبيين كأشخاص جذابين وفي ظروف متميزة.
التحيز الخوارزمي (Algorithmic Bias)
اختيار الخوارزميات (Algorithms) وإعداداتها يمكن أن يؤدي إلى إدخال تحيزات في نظام الذكاء الاصطناعي. على سبيل المثال، COMPAS، وهي خوارزمية تُستخدم في النظام القضائي الأمريكي لتقييم احتمالية عودة المتهمين إلى الجريمة، تبيَّن أنها متحيزة ضد الأمريكيين من أصل أفريقي، حيث توقعت نسبًا أعلى للعودة إلى الجريمة مقارنة بالمتهمين البيض.
التأثيرات المجتمعية لتحيز الذكاء الاصطناعي (Societal Impacts of Biased AI)
التمييز (Discrimination)
يمكن أن يؤدي التحيز في الذكاء الاصطناعي إلى معاملة غير عادلة وتمييز ضد الأشخاص بناءً على سمات مثل العرق أو النوع الاجتماعي أو العمر أو الوضع الاجتماعي والاقتصادي.
على سبيل المثال، ألغت شركة أمازون أداة الذكاء الاصطناعي الخاصة بالتوظيف بعد اكتشاف أنها متحيزة ضد النساء، حيث كانت تقلل من شأن السير الذاتية التي تتضمن كلمات مثل “نسائي” أو التي تحتوي على أسماء كليات خاصة بالنساء.
استمرار القوالب النمطية (Perpetuation of Stereotypes)
يمكن لأنظمة الذكاء الاصطناعي التي تظهر تحيزات أن تعزز وتستمر في نشر القوالب النمطية الضارة والتحيزات في المجتمع. على سبيل المثال، أظهر خوارزمية التعرف على الصور الخاصة بجوجل كيف يمكن للذكاء الاصطناعي تعزيز الصور النمطية المهينة.
غياب العدالة والمساواة (Lack of Fairness and Equity)
يمكن لـ العدالة و التحيز في الذكاء الاصطناعي أن يفاقم التفاوتات الموجودة ويخلق عوائق أمام تكافؤ الفرص والوصول إلى الموارد.
على سبيل المثال، أظهرت الدراسات أن أنظمة التصنيف الائتماني (AI-driven credit scoring systems) القائمة على الذكاء الاصطناعي قد تضر بالمجموعات العرقية الأقلية بشكل غير عادل، مما يجعل من الصعب عليهم الحصول على القروض أو الموافقات الائتمانية.
على سبيل المثال، استخدام ChatGPT لفحص الطلبات قد يؤدي إلى التمييز ضد الأشخاص ذوي البشرة الملونة استنادًا فقط إلى أسمائهم.
تخفيف التحيز في الذكاء الاصطناعي (Mitigating Bias in AI)
تخفيف التحيز في أنظمة الذكاء الاصطناعي يعد تحديًا معقدًا، لكنه ضروري لتحقيق أنظمة أكثر عدلاً وإنصافًا. يمكن تحقيق ذلك من خلال استراتيجيات متعددة تركز على البيانات، الخوارزميات، الشفافية، والأطر الأخلاقية. فيما يلي تفاصيل حول كل جانب:
1. بيانات متنوعة وممثلة (Diverse and Representative Data)
- أهمية البيانات المتنوعة:
تعتمد دقة وحيادية أنظمة الذكاء الاصطناعي على جودة البيانات المستخدمة لتدريبها. إذا كانت البيانات تحتوي على تحيزات تاريخية أو لا تمثل تنوع السكان، فإن النظام يتعلم هذه التحيزات ويكررها. - كيفية تحقيق التنوع في البيانات:
- جمع بيانات من مصادر متعددة تعكس تنوع الفئات السكانية.
- إزالة التحيزات التاريخية من البيانات قبل استخدامها.
- التأكد من تمثيل جميع الفئات الديموغرافية، مثل الجنس، العرق، العمر، والخلفيات الاجتماعية.
- أمثلة:
- تحسين أنظمة التعرف على الوجوه (Facial Recognition Systems) عن طريق تضمين صور لمجموعة واسعة من ألوان البشرة.
- تدريب نماذج معالجة اللغة الطبيعية (NLP) باستخدام بيانات تتضمن تنوعًا ثقافيًا ولغويًا.
2. العدالة الخوارزمية (Algorithmic Fairness)
- تطوير خوارزميات عادلة:
اختيار وتطوير خوارزميات تقلل من التحيز وتضمن نتائج منصفة. - إجراءات للحد من التحيز الخوارزمي:
- استخدام تقنيات اكتشاف التحيز (Bias Detection Techniques) لاختبار الأنظمة قبل نشرها.
- تحسين إعدادات الخوارزميات لتقليل التحيزات المتأصلة.
- إجراء مراجعات دورية لضمان استمرار العدالة مع تحديثات النظام.
- أمثلة على الخوارزميات العادلة:
- استخدام خوارزميات مثل Differential Privacy لضمان أن البيانات الحساسة لا تؤثر على النتائج بشكل غير عادل.
- تضمين أساليب Fairness Constraints في خوارزميات اتخاذ القرار لتقليل التمييز.
3. الشفافية والمساءلة (Transparency and Accountability)
- أهمية الشفافية:
الشفافية تتيح للمستخدمين والمجتمع فهم كيفية عمل أنظمة الذكاء الاصطناعي، مما يسهل تحديد ومعالجة التحيزات. - إجراءات لتعزيز الشفافية:
- توثيق العمليات الخوارزمية وشرح كيفية اتخاذ القرارات.
- تقديم تقارير واضحة عن البيانات المستخدمة، الخوارزميات المطبقة، وأي تحيزات محتملة.
- دور المساءلة:
يجب أن يكون هناك نظام للمساءلة يضمن معالجة المشكلات الناتجة عن تحيز الأنظمة.- إنشاء لجان رقابية لمراجعة أداء أنظمة الذكاء الاصطناعي.
- وضع آليات لتقديم الشكاوى عن أي مخرجات غير عادلة أو متحيزة.
- أمثلة:
- توفير تقارير تفسيرية مثل Explainable AI (XAI) لفهم كيفية وصول النظام إلى قرارات معينة.
4. أطر الذكاء الاصطناعي الأخلاقي (Ethical AI Frameworks)
- تعريف الأطر الأخلاقية:
أطر تُحدد المبادئ الأخلاقية لتطوير واستخدام أنظمة الذكاء الاصطناعي. - مبادئ الأطر الأخلاقية:
- العدالة (Fairness): ضمان عدم التمييز بين الأفراد.
- عدم التحيز (Non-Discrimination): تجنب النتائج التمييزية.
- المسؤولية الاجتماعية (Social Responsibility): استخدام الأنظمة لتحقيق منافع عامة.
- كيفية تطوير الأطر الأخلاقية:
- التعاون بين المطورين، الأكاديميين، والمشرعين لتحديد القواعد والمبادئ الأخلاقية.
- تبني المعايير العالمية مثل Ethics Guidelines for Trustworthy AI الصادرة عن الاتحاد الأوروبي.
- أمثلة:
- إنشاء سياسات داخلية للمؤسسات لتقييم جميع نماذج الذكاء الاصطناعي بناءً على هذه الأطر قبل نشرها.