ترغب بنشر مسار تعليمي؟ اضغط هنا

يمثل عدم المساواة بين الجنسين خسارة كبيرة في الإمكانات البشرية وإدامة ثقافة العنف، وارتفاع الفجوات في مجال الأجور بين الجنسين، وعدم وجود تمثيل المرأة في المناصب العليا والقيادية. يتم استخدام التطبيقات المدعومة من الذكاء الاصطناعي (AI) بشكل متزايد في العالم الحقيقي لتوفير قرارات نقدية حول من الذي سيتم توظيفه، ومنح قرضا، مقبول في الكلية، إلخ. ومع ذلك، فإن الركائز الرئيسية ل AI ومعالجة اللغة الطبيعية ( تم عرض NLP) وتعلم الجهاز (ML) تعكس وحتى تضخيم التحيزات والقوالب النمطية للجنسين، والتي تورثها أساسا من بيانات التدريب التاريخية. في محاولة لتسهيل تحديد الهوية والتخفيف من التحيز بين الجنسين في نص اللغة الإنجليزية، نطور تصنيفا شاملا للتصنيفات التي تعتمد على أنواع المنحات بين الجنسين التالية: الضمائر العامة، الجنسية، التحيز المهني، التحيز الاستبعاد، والدليل. ونحن نقدم أيضا نظرة عامة على نحو من القاعدة من خلال التحيز بين الجنسين، من أصلها المجتمعي إلى اللغة إلى اللغة. أخيرا، نربط الآثار المجتمعية على التحيز بين الجنسين من النوع (الأنواع) المقابلة في التصنيف المقترح. الدافع الأساسي لعملنا هو المساعدة في تمكين المجتمع الفني لتحديد والتخفيف من التحيزات ذات الصلة من التدريب كورسا لتحسين الإنصاف في أنظمة NLP.
أنتجت شركات التكنولوجيا ردود متنوعة على المخاوف بشأن آثار تصميم أنظمة AI المحادثة.ادعى البعض أن مساعديهم الصوتي هم في الواقع ليسوا جنسيين أو يشبه الجنسين --- على الرغم من ميزات التصميم التي تشير إلى العكس.قارنا هذه المطالبات بتصورات المستخدمين عن طري ق تحليل الضمائر التي يستخدمونها عند الإشارة إلى مساعدين AI.ونحن ندرس أيضا ردود الأنظمة والمدى الذي يولدون الناتج الذي هو الجنس والجنس البشري.نجد أنه، في حين أن بعض الشركات تبدو مخاطبة الشواغل الأخلاقية التي أثيرت، في بعض الحالات، لا يبدو أن مطالباتهم تحمل حقيقة.على وجه الخصوص، تظهر نتائجنا أن مخرجات النظام غامضة فيما يتعلق بانبان النظم، وأن المستخدمين يميلون إلى تخصيصهم ونوع الجنس نتيجة لذلك.
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا