يمكن أن تسهم التحيزات المحتملة بين الجنسين الموجودة في محتوى ويكيبيديا في السلوكيات المتحيزة في مجموعة متنوعة من أنظمة NLP المصب.ومع ذلك، فإن الجهود المبذولة لفهم عدم المساواة في تصوير النساء والرجال تحدث في ويكيبيديا ركزت حتى الآن فقط على السيرة الذاتية *، مما يترك سؤالا عن عدد المرات التي تحدث فيها مثل هذه الأنماط الضارة في مواضيع أخرى.في هذه الورقة، نحقق في عدم التباين المرتبطة بنوع الجنس في عناوين ويكيبيديا من * جميع المجالات *.نقوم بتقييم أنه لمدة نصف المقالات المرتبطة بنوع الجنس، أي مقالات مع كلمات مثل * المرأة * أو * ذكر * في ألقابه، نظيرات متناظرة تصف نفس مفهوم الجنس الآخر (وبشكل بوضوح قائلا في عناوينهم)وبعدمن بين القضايا المعالجة المتبقية، فإن الغالبية العظمى من المقالات تتعلق بالمشكلات الرياضية والاجتماعية ذات الصلة.نحن نقدم نظرة ثاقبة حول كيفية التأثير على هذه عدم التماثل في مكونات ويكيبيديا الأخرى واقتراح الخطوات نحو تقليل تواتر الأنماط المرصودة.
Potential gender biases existing in Wikipedia's content can contribute to biased behaviors in a variety of downstream NLP systems. Yet, efforts in understanding what inequalities in portraying women and men occur in Wikipedia focused so far only on *biographies*, leaving open the question of how often such harmful patterns occur in other topics. In this paper, we investigate gender-related asymmetries in Wikipedia titles from *all domains*. We assess that for only half of gender-related articles, i.e., articles with words such as *women* or *male* in their titles, symmetrical counterparts describing the same concept for the other gender (and clearly stating it in their titles) exist. Among the remaining imbalanced cases, the vast majority of articles concern sports- and social-related issues. We provide insights on how such asymmetries can influence other Wikipedia components and propose steps towards reducing the frequency of observed patterns.
References used
https://aclanthology.org/
With language models being deployed increasingly in the real world, it is essential to address the issue of the fairness of their outputs. The word embedding representations of these language models often implicitly draw unwanted associations that fo
Gender inequality represents a considerable loss of human potential and perpetuates a culture of violence, higher gender wage gaps, and a lack of representation of women in higher and leadership positions. Applications powered by Artificial Intellige
Natural Language Processing (NLP) systems are at the heart of many critical automated decision-making systems making crucial recommendations about our future world. Gender bias in NLP has been well studied in English, but has been less studied in oth
Internet search affects people's cognition of the world, so mitigating biases in search results and learning fair models is imperative for social good. We study a unique gender bias in image search in this work: the search images are often gender-imb
Pre-trained language models learn socially harmful biases from their training corpora, and may repeat these biases when used for generation. We study gender biases associated with the protagonist in model-generated stories. Such biases may be express