ترغب بنشر مسار تعليمي؟ اضغط هنا

قياس تحيزات Word Embeddings: ما تدابير التشابه والإحصاءات الوصفية لاستخدامها؟

Measuring Biases of Word Embeddings: What Similarity Measures and Descriptive Statistics to Use?

307   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

تستخدم Word Embeddings على نطاق واسع في معالجة اللغة الطبيعية (NLP) لمجموعة واسعة من التطبيقات. ومع ذلك، فقد ثبت باستمرار أن هذه المدينات تعكس نفس التحيزات البشرية الموجودة في البيانات المستخدمة لتدريبها. معظم مؤشرات التحيز المنصوص عليها للكشف عن تحيز Word Embeddings مؤشرات قائمة على أساس مقياس التشابه الجيبلي. في هذه الدراسة، ندرس آثار تدابير التشابه المختلفة وكذلك التقنيات الوصفية الأخرى أكثر من المتوسط ​​في قياس تحيزات تضمين الكلمات السياقية وغير السياقية. نظهر أن حجم التحيزات المكشوفة في Word Embeddings يعتمد على تدابير الإحصاءات الوصفية والتشابه المستخدمة لقياس التحيز. وجدنا أنه خلال الفئات العشرة من اختبارات جمعية تضمين Word، تكشف مسافة Mahalanobis عن أصغر التحيز، وتكشف مسافة Euclidean عن أكبر تحيز في Word Ageddings. بالإضافة إلى ذلك، تكشف النماذج السياقية عن تحيزات أقل حدة من نماذج تضمين الكلمة غير السياقية.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

من المعروف أن تمثيلات اللغة تحمل تحيزات نمطية ونتيجة لذلك، تؤدي إلى تنبؤات متحيزة في مهام المصب.في حين أن الطرق الحالية فعالة في التحيزات المخفئ عن طريق الإسقاط الخطي، فإن هذه الأساليب عدوانية للغاية: لا تزيل التحيز فقط، ولكن أيضا محو المعلومات القيم ة من Word Adgeddings.نقوم بتطوير تدابير جديدة لتقييم الاحتفاظ بالمعلومات المحددة التي توضح مفاضلة بين إزالة التحيز والاحتفاظ بالمعلومات.لمعالجة هذا التحدي، نقترح أوسكار (تصحيح الفضاء الفرعي المتعامد والتصحيح)، وهي طريقة تخفيف التحيز التي تركز على تحطيم الجمعيات المتحيزة بين المفاهيم بدلا من إزالة المفاهيم بالجملة.تشير تجاربنا في التحيزات بين الجنسين إلى أن أوسكار هو نهج متوازن جيدا يضمن أن يتم الاحتفاظ بالمعلومات الدلالية في المدينات والتحيز بشكل فعال.
يركز Profner-St على اعتراف المهن والمهن من تويتر باستخدام البيانات الإسبانية.تعتمد مشاركتنا على مزيج من Adgeddings على مستوى الكلمات، بما في ذلك بيرت الإسبانية المدربة مسبقا، بالإضافة إلى تشابه التموين المحسوبة فوق مجموعة فرعية من الكيانات التي تعمل كمدخل للحصول على بنية فك تشفير التشفير مع آلية الاهتمام.أخيرا، حقق أفضل درجة لدينا قياس F1 من 0.823 في مجموعة الاختبار الرسمية.
بالنسبة للعديد من تطبيقات NLP للمراجعات عبر الإنترنت، فإن مقارنة جملتين تحمل رأي هي مفتاح. نقول أنه، في حين تم تطبيق مقاييس تشابه النص العام للأغراض العامة لهذا الغرض، كان هناك استكشاف محدود من تطبيقه على نصوص الرأي. نحن نتطلع إلى هذه الفجوة في الأدب يات، الدراسة: (1) كيف يحكم البشر على تشابه أزواج من الجمل التي تحمل الرأي؛ و (2) الدرجة التي يتوافق فيها مقاييس التشابه النصية الحالية، ولا سيما المتكررين على أساس الأحكام البشرية. نحن علاجه التعليقات التوضيحية لأزواج عقوبة الرأي ونتائجنا الرئيسية هي: (1) المعلقون يميلون إلى الاتفاق على ما إذا كانت أحكام الرأي متشابهة أم لا بشكل مختلف؛ و (2) تضمين المقاييس القائم على الأحكام الإنسانية من تشابه الرأي "ولكن عدم وجود فرق الرأي". بناء على تحليلنا، نحدد المجالات التي ينبغي فيها تحسين المقاييس الحالية. نقترح مزيد من التعلم لتعلم مقياس التشابه من أجل تشابه الرأي من خلال ضبط شبكة تضمين عقوبة القصص الجماعية بناء على نص المراجعة والإشراف الضعيف عن طريق تقييمات المراجعة. تبين التجارب أن لدينا متري المستفادة تفوقت مقاييس التشابه النصية الحالية، وخاصة تظهر ارتباطا أعلى بكثير مع شروح بشرية لآراء مختلفة.
في السنوات القليلة الماضية، تم اقتراح العديد من الطرق لبناء تضمين التوطين.كان الهدف العام هو الحصول على تمثيلات جديدة تدمج المعرفة التكميلية من مختلف المدينات المدربة مسبقا مما يؤدي إلى تحسين الجودة الشاملة.ومع ذلك، تم تقييم Enterpaintings Meta-embed dings السابق باستخدام مجموعة متنوعة من الأساليب ومجموعات البيانات، مما يجعل من الصعب استخلاص استنتاجات ذات مغزى بشأن مزايا كل منهج.في هذه الورقة نقترح إطارا مشتركا موحدا، بما في ذلك المهام الجوهرية والخارجية، من أجل تقييم عادل وموضوعي لتقييم التوطين.علاوة على ذلك، نقدم طريقة جديدة لتوليد تضمين التوطين، مما يفوقن العمل السابق على عدد كبير من معايير التقييم الجوهرية.كما يتيح لنا إطار التقييم أن نستنتج أن التقييمات الخارجية السابقة للمضفة المتمثلة في المبالغة في تقديرها.
كلمة تضمين خرائط الكلمات إلى ناقلات الأرقام الحقيقية.وهي مشتقة من كوربوس كبيرة ومن المعروف أنها تلتقط المعرفة الدلالية من الجثة.يعد Word Embedding مكونا حاسما للعديد من أساليب التعلم العميق الحديثة.ومع ذلك، فإن إنشاء Word Good Legeddings هو تحدي خاص لغات الموارد المنخفضة مثل النيبالية بسبب عدم توفر كوربوس نص كبير.في هذه الورقة، نقدم NPVEC1 والتي تتألف من 25 كلمة نيبالية من النيبالية التي اشتوعناها من كوربوس كبيرة باستخدام القفازات و Word2VEC و FastText و Bert.ونحن نقدم كذلك التقييمات الجوهرية والخارجية لهذه الأشرطة باستخدام مقاييس وأساليب راسخة.يتم تدريب هذه النماذج باستخدام الرموز 279 مليون كلمة وهي أكبر embeddings مدربة على الإطلاق للغة النيبالية.علاوة على ذلك، لقد جعلنا هذه الأشرطة المتاحة للجمهور لتسريع تطوير طلبات معالجة اللغة الطبيعية (NLP) في النيبالية.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا