وقد وجدت التقييمات المستهدفة أن أنظمة الترجمة الآلية غالبا ما تنتج بين الجنسين غير الصحيحين في الترجمات، حتى عندما يكون الجنس واضحا من السياق.علاوة على ذلك، هذه الترجمات الجنسية غير الصحيحة لديها القدرة على تعكس أو تضخيم التحيزات الاجتماعية.نقترح التدريب الذاتي المرشح بين الجنسين (GFST) لتحسين دقة الترجمة من النوع الاجتماعي على المدخلات الجنسية التي لا لبس فيها.يستخدم نهج GFST لدينا مصدر أحادي طيور مصدر ونموذج أولي لإنشاء شركة موازية زائفة خاصة بالجنسين يتم تصفيتها ثم يتم إضافتها إلى بيانات التدريب.نقيم GFST على الترجمة من الإنجليزية إلى خمس لغات، ويجد أنها تحسن دقة الجنس دون إتلاف جودة عامة.نعرض أيضا صلاحية GFST على العديد من الإعدادات التجريبية، بما في ذلك إعادة التدريب من الصفر، والضبط الجميل، والتحكم في التوازن بين الجنسين للبيانات، والترجمة الأمامية، والترجمة الخلفي.
Targeted evaluations have found that machine translation systems often output incorrect gender in translations, even when the gender is clear from context. Furthermore, these incorrectly gendered translations have the potential to reflect or amplify social biases. We propose gender-filtered self-training (GFST) to improve gender translation accuracy on unambiguously gendered inputs. Our GFST approach uses a source monolingual corpus and an initial model to generate gender-specific pseudo-parallel corpora which are then filtered and added to the training data. We evaluate GFST on translation from English into five languages, finding that it improves gender accuracy without damaging generic quality. We also show the viability of GFST on several experimental settings, including re-training from scratch, fine-tuning, controlling the gender balance of the data, forward translation, and back-translation.
References used
https://aclanthology.org/
AbstractMachine translation (MT) technology has facilitated our daily tasks by providing accessible shortcuts for gathering, processing, and communicating information. However, it can suffer from biases that harm users and society at large. As a rela
Unsupervised neural machine translation (UNMT) that relies solely on massive monolingual corpora has achieved remarkable results in several translation tasks. However, in real-world scenarios, massive monolingual corpora do not exist for some extreme
As the labeling cost for different modules in task-oriented dialog (ToD) systems is expensive, a major challenge is to train different modules with the least amount of labeled data. Recently, large-scale pre-trained language models, have shown promis
State-of-the-art deep neural networks require large-scale labeled training data that is often expensive to obtain or not available for many tasks. Weak supervision in the form of domain-specific rules has been shown to be useful in such settings to a
With language models being deployed increasingly in the real world, it is essential to address the issue of the fairness of their outputs. The word embedding representations of these language models often implicitly draw unwanted associations that fo