ترغب بنشر مسار تعليمي؟ اضغط هنا

يكشف التحيز بين الجنسين الضمني في الروايات من خلال استنتاج المنطقي

Uncovering Implicit Gender Bias in Narratives through Commonsense Inference

478   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

تعلم نماذج اللغة المدربة مسبقا تحيزات ضارة اجتماعيا من كورسا التدريب الخاصة بهم، وقد تكرر هذه التحيزات عند استخدامها للجيل.ندرس التحيزات الجنسانية المرتبطة بطل الرواية في القصص الناتجة النموذجية.قد يتم التعبير عن هذه التحيزات إما صراحة (لا تستطيع المرأة أن تجمع ") أو ضمنيا (على سبيل المثال طابع الذكور غير المرغوب فيه يرشدها إلى مساحة وقوف السيارات).نحن نركز على التحيزات الضمنية واستخدام محرك منطق المنطقي للكشف عنها.على وجه التحديد، نستنتج وتحليل دوافع بطل الرواية، والسمات، والدول الذهنية، والآثار على الآخرين.تتماشى نتائجنا المتعلقة بالتحيزات الضمنية مع العمل المسبق الذي درس تحيزات صريحة، على سبيل المثال إظهار أن تصوير الأحرف الإناث يتركز حول المظهر، بينما تركز أرقام الذكور على الفكر.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

مع نشر نماذج اللغة بشكل متزايد في العالم الحقيقي، من الضروري معالجة مسألة نزاهة مخرجاتها. غالبا ما تعتمد كلمة تضمين تمثيلات نماذج اللغة هذه ضمنيا ارتباطات غير مرغوب فيها تشكل تحيزا اجتماعيا داخل النموذج. تطرح طبيعة اللغات بين الجنسين مثل الهندية مشكل ة إضافية في تقدير التحيز والتخفيف من التحيز، بسبب التغيير في شكل الكلمات في الجملة، بناء على جنس الموضوع. بالإضافة إلى ذلك، هناك أعمال متناثرة تتم في مجال أنظمة القياس والدولي لغات Instan. في عملنا، نحاول تقييم وتحديد التحيز بين الجنسين داخل نظام الترجمة الآلية الهندية-الإنجليزية. نقوم بتنفيذ إصدار تعديل من متري TGBI الموجود على أساس الاعتبارات النحوية له الهندية. قارننا أيضا وتتناقض مع قياسات التحيز الناتجة عن مقاييس متعددة للمظلات المدربة مسبقا وتلك التي تعلمتها نموذج الترجمة الآلي لدينا.
يمثل عدم المساواة بين الجنسين خسارة كبيرة في الإمكانات البشرية وإدامة ثقافة العنف، وارتفاع الفجوات في مجال الأجور بين الجنسين، وعدم وجود تمثيل المرأة في المناصب العليا والقيادية. يتم استخدام التطبيقات المدعومة من الذكاء الاصطناعي (AI) بشكل متزايد في العالم الحقيقي لتوفير قرارات نقدية حول من الذي سيتم توظيفه، ومنح قرضا، مقبول في الكلية، إلخ. ومع ذلك، فإن الركائز الرئيسية ل AI ومعالجة اللغة الطبيعية ( تم عرض NLP) وتعلم الجهاز (ML) تعكس وحتى تضخيم التحيزات والقوالب النمطية للجنسين، والتي تورثها أساسا من بيانات التدريب التاريخية. في محاولة لتسهيل تحديد الهوية والتخفيف من التحيز بين الجنسين في نص اللغة الإنجليزية، نطور تصنيفا شاملا للتصنيفات التي تعتمد على أنواع المنحات بين الجنسين التالية: الضمائر العامة، الجنسية، التحيز المهني، التحيز الاستبعاد، والدليل. ونحن نقدم أيضا نظرة عامة على نحو من القاعدة من خلال التحيز بين الجنسين، من أصلها المجتمعي إلى اللغة إلى اللغة. أخيرا، نربط الآثار المجتمعية على التحيز بين الجنسين من النوع (الأنواع) المقابلة في التصنيف المقترح. الدافع الأساسي لعملنا هو المساعدة في تمكين المجتمع الفني لتحديد والتخفيف من التحيزات ذات الصلة من التدريب كورسا لتحسين الإنصاف في أنظمة NLP.
تعد أنظمة معالجة اللغة الطبيعية (NLP) في قلب العديد من أنظمة صنع القرار الآلي الحرجة التي تجعل توصيات حاسمة حول عالمنا في المستقبل.تم دراسة التحيز بين الجنسين في NLP جيدا باللغة الإنجليزية، لكنها كانت أقل دراستها بلغات أخرى.في هذه الورقة، تضم فريقا ب ينهم متحدثون 9 لغات - الصينية والإسبانية والإنجليزية والعربية والألمانية والفرنسية والفرصي والأوردو وولف - تقارير وتحليل قياسات التحيز بين الجنسين في ولاية ويكيبيديا كورسيا لهذه اللغات 9 لغات 9 لغات 9 لغات 9 لغات 9 لغات هذه.نقوم بتطوير ملحقات لحسابات متر راي حساسية على مستوى المهنة والجنس على مستوى كوربوس المصممة في الأصل للغة الإنجليزية وتطبيقها على 8 لغات أخرى، بما في ذلك اللغات التي لديها أسماء جنسانية من النوع الاجتماعي بما في ذلك كلمات المهنة الأنثوية والمذكر والمحايدة المختلفة.نناقش العمل في المستقبل من شأنه أن يستفيد بشكل كبير من منظور اللغويات الحاسوبية.
يمكن أن تسهم التحيزات المحتملة بين الجنسين الموجودة في محتوى ويكيبيديا في السلوكيات المتحيزة في مجموعة متنوعة من أنظمة NLP المصب.ومع ذلك، فإن الجهود المبذولة لفهم عدم المساواة في تصوير النساء والرجال تحدث في ويكيبيديا ركزت حتى الآن فقط على السيرة الذ اتية *، مما يترك سؤالا عن عدد المرات التي تحدث فيها مثل هذه الأنماط الضارة في مواضيع أخرى.في هذه الورقة، نحقق في عدم التباين المرتبطة بنوع الجنس في عناوين ويكيبيديا من * جميع المجالات *.نقوم بتقييم أنه لمدة نصف المقالات المرتبطة بنوع الجنس، أي مقالات مع كلمات مثل * المرأة * أو * ذكر * في ألقابه، نظيرات متناظرة تصف نفس مفهوم الجنس الآخر (وبشكل بوضوح قائلا في عناوينهم)وبعدمن بين القضايا المعالجة المتبقية، فإن الغالبية العظمى من المقالات تتعلق بالمشكلات الرياضية والاجتماعية ذات الصلة.نحن نقدم نظرة ثاقبة حول كيفية التأثير على هذه عدم التماثل في مكونات ويكيبيديا الأخرى واقتراح الخطوات نحو تقليل تواتر الأنماط المرصودة.
يؤثر البحث على الإنترنت على إدراك الناس في العالم، وبالتالي فإن التخفيف من التحيزات في نتائج البحث ونماذج التعلم العادلة أمر حتمي للجيدة الاجتماعية.نحن ندرس تحيز جنساني فريد من نوعه في البحث في الصورة في هذا العمل: غالبا ما تكون صور البحث في كثير من الأحيان عن النوع الاجتماعي لاستفسارات اللغة الطبيعية المحايدة بين الجنسين.نحن تشخيص طرازات بحث عن الصور النموذجية، النموذج المتخصص المدرب على مجموعات البيانات داخل المجال ونموذج التمثيل المعمم مسبقا على صورة واسعة بيانات النصية عبر الإنترنت.كلا النموذجين يعانون من التحيز بين الجنسين الحاد.لذلك، نقدم اثنين مناهج ديوان رواية: طريقة أخذ العينات المعدة المعالجة لمعالجة قضية عدم التوازن بين الجنسين للنماذج التدريبية، وميزة ما بعد المعالجة هي قاعدة أسلوب لقطة على المعلومات المتبادلة إلى تمثيلات Debias متعددة الوسائط للنماذج المدربة مسبقا.تجارب واسعة على معايير MS-COCO و FLICKR30K تظهر أن أساليبنا تقلل بشكل كبير من التحيز بين الجنسين في نماذج البحث عن الصور.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا