من المعروف أن تمثيلات اللغة تحمل تحيزات نمطية ونتيجة لذلك، تؤدي إلى تنبؤات متحيزة في مهام المصب.في حين أن الطرق الحالية فعالة في التحيزات المخفئ عن طريق الإسقاط الخطي، فإن هذه الأساليب عدوانية للغاية: لا تزيل التحيز فقط، ولكن أيضا محو المعلومات القيمة من Word Adgeddings.نقوم بتطوير تدابير جديدة لتقييم الاحتفاظ بالمعلومات المحددة التي توضح مفاضلة بين إزالة التحيز والاحتفاظ بالمعلومات.لمعالجة هذا التحدي، نقترح أوسكار (تصحيح الفضاء الفرعي المتعامد والتصحيح)، وهي طريقة تخفيف التحيز التي تركز على تحطيم الجمعيات المتحيزة بين المفاهيم بدلا من إزالة المفاهيم بالجملة.تشير تجاربنا في التحيزات بين الجنسين إلى أن أوسكار هو نهج متوازن جيدا يضمن أن يتم الاحتفاظ بالمعلومات الدلالية في المدينات والتحيز بشكل فعال.
Language representations are known to carry stereotypical biases and, as a result, lead to biased predictions in downstream tasks. While existing methods are effective at mitigating biases by linear projection, such methods are too aggressive: they not only remove bias, but also erase valuable information from word embeddings. We develop new measures for evaluating specific information retention that demonstrate the tradeoff between bias removal and information retention. To address this challenge, we propose OSCaR (Orthogonal Subspace Correction and Rectification), a bias-mitigating method that focuses on disentangling biased associations between concepts instead of removing concepts wholesale. Our experiments on gender biases show that OSCaR is a well-balanced approach that ensures that semantic information is retained in the embeddings and bias is also effectively mitigated.
المراجع المستخدمة
https://aclanthology.org/
تستخدم Word Embeddings على نطاق واسع في معالجة اللغة الطبيعية (NLP) لمجموعة واسعة من التطبيقات. ومع ذلك، فقد ثبت باستمرار أن هذه المدينات تعكس نفس التحيزات البشرية الموجودة في البيانات المستخدمة لتدريبها. معظم مؤشرات التحيز المنصوص عليها للكشف عن تحي
كلمة تضمين خرائط الكلمات إلى ناقلات الأرقام الحقيقية.وهي مشتقة من كوربوس كبيرة ومن المعروف أنها تلتقط المعرفة الدلالية من الجثة.يعد Word Embedding مكونا حاسما للعديد من أساليب التعلم العميق الحديثة.ومع ذلك، فإن إنشاء Word Good Legeddings هو تحدي خاص
نقدم Query2Prod2VEC، وهو نموذج يسبب تمثيلات معجمية للبحث عن المنتج في تضمين المنتج: في نموذجنا، يعني المعنى رسم خرائط بين الكلمات والمساحة الكامنة من المنتجات في متجر رقمي.نستفيد من جلسات التسوق لتعلم المساحة الأساسية واستخدام التعليقات التوضيحية للت
تحديد العلاقات بين المؤلفين بين المؤلفين ذات أهمية مركزية لدراسة الأدبيات. نقوم بالإبلاغ عن تحليل تجريبي بين التقاطعات التعليمية في الأدبيات اللاتينية الكلاسيكية باستخدام نماذج تضمين كلمة. لتمكين التقييم الكمي لطرق البحث Intertextuxucture، نرفع مجموع
نقدم نهجا جديدا لتجانس وتحسين جودة Adgeddings Word.نحن نعتبر طريقة لتدبير تضمين كلمة تم تدريبها على نفس الكملات ولكن مع تهيئة مختلفة.نقوم بتعريف جميع النماذج إلى مساحة متجهية مشتركة باستخدام تطبيق فعال لإجراءات تحليل Scristes (GPA) المعمم (GPA)، تستخ