رقيب من مايكروسوفت يفضح انحياز الذكاء الاصطناعي

مع توسع اعتماد التقنية من الشركات، عملاقة البرمجيات الأميركية تطور أسوة بفيسبوك أداة يمكنها كشف خوارزميات تقنيات التعلم الآلي للكشف مبكرا عن المحاباة غير المقصودة.
'الأدوات الجديدة تبدو خطوة مهمة في الاتجاه الصحيح، ولكنها قد لا تكون كافية'
يجب على الشركات الكبيرة أن يكون لديها خبراء خارجيين يقومون بمراجعة خوارزميات الذكاء الاصطناعي

واشنطن - تطور عملاقة البرمجيات الأميركية مايكروسوفت أداة يمكنها فضح تحيز خوارزميات أنظمة الذكاء الاصطناعي، في خطوة تتزامن تقريبا مع كشف فيسبوك عن برنامج مماثل.

وأداة مايكروسوفت الجديدة تسعى لدعم ثقة الشركات في التكنولوجيا الجديدة بمساعدتهم على كشف مخاطر التحيز غير المقصود ضد الأشخاص.

ويضاعف تسابق شركات التكنولوجيا الكبرى لبيع تقنيات التعلم الآلي الجاهزة عدد مستخدمي هذه الخوارزميات لإكمال الخطوات المهمة والقرارات، ما يضع قضية التحيز على طاولة الاهتمام.

والتحيز يمكن أن يتسلل بسهولة إلى نماذج التعلم الآلي عن طريق البيانات أو الخوارزميات المستخدمة في تدريبها حيث قد تتضمن تلك البيانات تحيزا بنسبة ما، وحتى الآن لم يحاول أي شخص حل هذه المشكلة الضخمة.

والظاهرة مصدر قلق متزايد للعديد من الباحثين وخبراء التكنولوجيا، ولما كانت الخوارزميات تُستَخدم لاخذ قرارات مهمة، فإن هناك خطرا يتمثل في أن التحيز يمكن أن يصبح آليا، ويتم نشره على نطاق واسع ويصعب على الضحايا اكتشافه.

لذلك فإن طرق الكشف عن التحيز يمكن أن تصبح جزءاً قيما من مجموعة أدوات الذكاء الاصطناعي.

 

بما ان الخوارزميات تُستَخدم لأخذ قرارات مصيرية، فإن هناك تخوفا في أن يصبح التحيز آليا

 

ذكاء اصطناعي
أنظمة قد لا تكون دائما عادلة

وصف ريتش كاروانا الباحث في مايكروسوفت العامل على أداة الكشف عن التحيز الأمر بإنه سيصبح عبارة عن "لوحة تحكم" يمكن للمهندسين تطبيقها على نماذج الذكاء الاصطناعي المدربة لتجنب خطر تحيزها.

وقال كاروان "إن أشياء مثل الشفافية والوضوح والتفسير جديدة بما فيه الكفاية للمجال الذي لا يملك إلا القليل من الخبرة الكافية لمعرفة كل شيء نبحث عنه وجميع أساليب التحيز التي تكمن في السلوك البشري".

وأضاف "منتج مايكروسوفت الذي سيعمل على كشف التحيز سيساعد باحثين في مجال الذكاء الاصطناعي على التقاط المزيد من حالات عدم الإنصاف وإن لم يكن كلها. بالطبع لا يمكننا أن نتوقع الكمال، سيكون هناك دائما بعض التحيز غير المكتشف أو الذي لا يمكن القضاء عليه – الهدف هو أن نفعل ما بوسعنا”.

وإعلان مايكروسوفت يأتي بعد فترة قصيرة بعدما أعلنت شركة فيسبوك عن أداتها الخاصة للكشف عن التحيز في مؤتمرها للمطورين السنوي الذي عقد في الثاني من شهر مايو/أيار.

والأداة الخاصة بفيسبوك، تطلق تحذير إذا ما قامت الخوارزمية بحكم غير عادل حول شخص ما على أساس عرقه أو جنسه أو عمره.

ويقول فيسبوك إنه بحاجة إلى الاداة المسماة "Fairness Flow" لأن المزيد من الأشخاص في الشركة يستخدمون الذكاء الاصطناعي لاتخاذ قرارات مهمة.

وقد علق على هذا الأمر بن يو الأستاذ في جامعة كاليفورنيا في بيركلي قائلًا "إن الأدوات الجديدة من فيسبوك ومايكروسوفت تبدو خطوة مهمة في الاتجاه الصحيح، ولكنها قد لا تكون كافية".

واقترح إنه يجب على الشركات الكبيرة أن يكون لديها خبراء خارجيين يقومون بمراجعة خوارزميات الذكاء الاصطناعي التابعة لهم من أجل إثبات أنهم غير متحيزين".