وقد تبين أن نماذج اللغة ذات الضبط بذاتها أن تظهر تحيزات ضد المجموعات المحمية في مجموعة من مهام النمذجة مثل تصنيف النص ودقة Aqueference. تركز الأشغال السابقة على اكتشاف هذه التحيزات، وتقليل التحيز في تمثيلات البيانات، واستخدام أهداف التدريب الإضافية لتخفيف التحيز أثناء الضبط بشكل جيد. على الرغم من أن هذه التقنيات تحقق تخفيض التحيز للمهمة والمجال في متناول اليد، إلا أن آثار تخفيف التحيز قد لا ينقل بشكل مباشر إلى مهام جديدة، مما يتطلب جمع بيانات إضافية وشروح تخصيصا للسمات الحساسة، وإعادة تقييم مقاييس الإنصاف المناسبة. نستكشف من جدوى وفوائد تخفيف التحيز المنبع (UBM) لتقليل التحيز حول مهام المصب، من خلال تطبيق تخفيف التحيز الأول لأول مرة إلى نموذج Upstream من خلال الضبط الجميل وبعد ذلك باستخدامه للضبط الناعم المصب. نجد، في تجارب واسعة عبر تكشف عن الكلام الكراهية، وكشف السمية ومهام القرار الأساسية حول عوامل التحذير المختلفة، أن آثار UPM قابلة للتحويل بالفعل إلى مهام أو مجالات جديدة للملاعب الجديدة من خلال ضبط نماذج دقيقة، مما يخلق نماذج أقل منحازة من النماذج بشكل مباشر ضبط المهمة المصب أو نقل من نموذج الفانيليا المنبع. على الرغم من أن التحديات تبقى، إلا أننا نوضح أن UBM يعد بتخفيف التحيز أكثر كفاءة ويمكن الوصول إليها في LM Fine-Tuning.
Fine-tuned language models have been shown to exhibit biases against protected groups in a host of modeling tasks such as text classification and coreference resolution. Previous works focus on detecting these biases, reducing bias in data representations, and using auxiliary training objectives to mitigate bias during fine-tuning. Although these techniques achieve bias reduction for the task and domain at hand, the effects of bias mitigation may not directly transfer to new tasks, requiring additional data collection and customized annotation of sensitive attributes, and re-evaluation of appropriate fairness metrics. We explore the feasibility and benefits of upstream bias mitigation (UBM) for reducing bias on downstream tasks, by first applying bias mitigation to an upstream model through fine-tuning and subsequently using it for downstream fine-tuning. We find, in extensive experiments across hate speech detection, toxicity detection and coreference resolution tasks over various bias factors, that the effects of UBM are indeed transferable to new downstream tasks or domains via fine-tuning, creating less biased downstream models than directly fine-tuning on the downstream task or transferring from a vanilla upstream model. Though challenges remain, we show that UBM promises more efficient and accessible bias mitigation in LM fine-tuning.
المراجع المستخدمة
https://aclanthology.org/
يعيد هذا العمل مهمة اكتشاف الكلمات المتعلقة بالقرار في حوار متعدد الأحزاب.نستكشف أداء نهج تقليدي ونهج عميق قائم على التعلم بناء على نماذج لغة المحولات، مع تقدم الأخير تحسينات متواضعة.ثم نحلل تحريف الموضوع في النماذج باستخدام معلومات الموضوع التي تم ا
أخبار وهمية تسبب أضرارا كبيرة في المجتمع.للتعامل مع هذه الأخبار المزيفة، تم إجراء العديد من الدراسات حول نماذج كشف البناء وترتيب مجموعات البيانات.معظم مجموعات بيانات الأخبار المزيفة تعتمد على فترة زمنية محددة.وبالتالي، فإن نماذج الكشف المدربة على مثل
في الوقت الحاضر، تستخدم منصات وسائل التواصل الاجتماعي نماذج التصنيف للتعامل مع خطاب الكراهية واللغة المسيئة.مشكلة هذه النماذج هي ضعفها للحيز.شكل منتشر من التحيز في خطاب الكراهية ومجموعات البيانات اللغوية المسيئة هو التحيز الهندي الناجم عن التصور النف
في هذه الورقة، ندرس التحيز العرقي وكيف يختلف عبر اللغات عن طريق تحليل التحيز الإثني والتخفيف من التحيز الإثني في بيرت أحادي اللغة الإنجليزية والألمانية والإسبانية والكورية والتركية والصينية.لاحظ وتحديد التحيز العرقي، ونحن نطور مترا مربعا يسمى درجة ال
تثبت نماذج اللغة القائمة على المحولات (LMS) على مجموعات نصية كبيرة تخزين ثروة من المعرفة الدلالية. ومع ذلك، 1) أنها ليست فعالة كوسميز الجملة عند استخدامها خارج الرف، و 2) وبالتالي لا تتأخر عادة وراء إعادة احتجازها بشكل تقريبي (E.G.، عبر اختيار الاستج