وقد تبين أن نماذج اللغة ذات الضبط بذاتها أن تظهر تحيزات ضد المجموعات المحمية في مجموعة من مهام النمذجة مثل تصنيف النص ودقة Aqueference. تركز الأشغال السابقة على اكتشاف هذه التحيزات، وتقليل التحيز في تمثيلات البيانات، واستخدام أهداف التدريب الإضافية لتخفيف التحيز أثناء الضبط بشكل جيد. على الرغم من أن هذه التقنيات تحقق تخفيض التحيز للمهمة والمجال في متناول اليد، إلا أن آثار تخفيف التحيز قد لا ينقل بشكل مباشر إلى مهام جديدة، مما يتطلب جمع بيانات إضافية وشروح تخصيصا للسمات الحساسة، وإعادة تقييم مقاييس الإنصاف المناسبة. نستكشف من جدوى وفوائد تخفيف التحيز المنبع (UBM) لتقليل التحيز حول مهام المصب، من خلال تطبيق تخفيف التحيز الأول لأول مرة إلى نموذج Upstream من خلال الضبط الجميل وبعد ذلك باستخدامه للضبط الناعم المصب. نجد، في تجارب واسعة عبر تكشف عن الكلام الكراهية، وكشف السمية ومهام القرار الأساسية حول عوامل التحذير المختلفة، أن آثار UPM قابلة للتحويل بالفعل إلى مهام أو مجالات جديدة للملاعب الجديدة من خلال ضبط نماذج دقيقة، مما يخلق نماذج أقل منحازة من النماذج بشكل مباشر ضبط المهمة المصب أو نقل من نموذج الفانيليا المنبع. على الرغم من أن التحديات تبقى، إلا أننا نوضح أن UBM يعد بتخفيف التحيز أكثر كفاءة ويمكن الوصول إليها في LM Fine-Tuning.
Fine-tuned language models have been shown to exhibit biases against protected groups in a host of modeling tasks such as text classification and coreference resolution. Previous works focus on detecting these biases, reducing bias in data representations, and using auxiliary training objectives to mitigate bias during fine-tuning. Although these techniques achieve bias reduction for the task and domain at hand, the effects of bias mitigation may not directly transfer to new tasks, requiring additional data collection and customized annotation of sensitive attributes, and re-evaluation of appropriate fairness metrics. We explore the feasibility and benefits of upstream bias mitigation (UBM) for reducing bias on downstream tasks, by first applying bias mitigation to an upstream model through fine-tuning and subsequently using it for downstream fine-tuning. We find, in extensive experiments across hate speech detection, toxicity detection and coreference resolution tasks over various bias factors, that the effects of UBM are indeed transferable to new downstream tasks or domains via fine-tuning, creating less biased downstream models than directly fine-tuning on the downstream task or transferring from a vanilla upstream model. Though challenges remain, we show that UBM promises more efficient and accessible bias mitigation in LM fine-tuning.
References used
https://aclanthology.org/
This work revisits the task of detecting decision-related utterances in multi-party dialogue. We explore performance of a traditional approach and a deep learning-based approach based on transformer language models, with the latter providing modest i
Fake news causes significant damage to society. To deal with these fake news, several studies on building detection models and arranging datasets have been conducted. Most of the fake news datasets depend on a specific time period. Consequently, the
Nowadays, social media platforms use classification models to cope with hate speech and abusive language. The problem of these models is their vulnerability to bias. A prevalent form of bias in hate speech and abusive language datasets is annotator b
In this paper, we study ethnic bias and how it varies across languages by analyzing and mitigating ethnic bias in monolingual BERT for English, German, Spanish, Korean, Turkish, and Chinese. To observe and quantify ethnic bias, we develop a novel met
Transformer-based language models (LMs) pretrained on large text collections are proven to store a wealth of semantic knowledge. However, 1) they are not effective as sentence encoders when used off-the-shelf, and 2) thus typically lag behind convers