تمثل التمثيلات المتبادلة القدرة على جعل تقنيات NLP المتاحة للغالبية العظمى من اللغات في العالم. ومع ذلك، فإنهم يتطلبون حاليا كوربورا محدبة كبيرة أو الوصول إلى لغات مماثلة من الناحية النموذجية. في هذا العمل، نتعلم هذه العقبات من خلال إزالة إشارات هوية اللغة من المدينات متعددة اللغات. ندرس ثلاث نهج لذلك: (1) إعادة محاذاة مساحات ناقلات اللغات المستهدفة (كل ذلك) إلى لغة مصدر محوري؛ (2) إزالة الوسائل والفروقة الخاصة باللغة، والتي تفرج بشكل أفضل من التمييز بين المدينين كمنتج ثانوي؛ (3) زيادة تشابه الإدخال عبر اللغات عن طريق إزالة الانقباضات المورفولوجية وإعادة ترتيب الجملة. نقيم تقييم XNLI وتقييم MT بدون مرجع عبر 19 لغة متنوعة من الناحية النموذجية. تعرض نتائجنا قيود هذه الأساليب - على عكس تطبيع ناقلات ومحاذاة الفضاء المتجه وتطبيع النصوص لا يحقق مكاسب متسقة عبر اللوافع واللغات. نظرا لآثاره المضافة للنهج، فإن مزيجها يقلل فجوة النقل عبر اللغات بمقدار 8.9 نقطة (M-Bert) و 18.2 نقطة (XLM-R) في المتوسط عبر جميع المهام واللغات.
Cross-lingual representations have the potential to make NLP techniques available to the vast majority of languages in the world. However, they currently require large pretraining corpora or access to typologically similar languages. In this work, we address these obstacles by removing language identity signals from multilingual embeddings. We examine three approaches for this: (i) re-aligning the vector spaces of target languages (all together) to a pivot source language; (ii) removing language-specific means and variances, which yields better discriminativeness of embeddings as a by-product; and (iii) increasing input similarity across languages by removing morphological contractions and sentence reordering. We evaluate on XNLI and reference-free MT evaluation across 19 typologically diverse languages. Our findings expose the limitations of these approaches---unlike vector normalization, vector space re-alignment and text normalization do not achieve consistent gains across encoders and languages. Due to the approaches' additive effects, their combination decreases the cross-lingual transfer gap by 8.9 points (m-BERT) and 18.2 points (XLM-R) on average across all tasks and languages, however.
References used
https://aclanthology.org/
We propose a method to distill a language-agnostic meaning embedding from a multilingual sentence encoder. By removing language-specific information from the original embedding, we retrieve an embedding that fully represents the sentence's meaning. T
Pre-trained multilingual language models have become an important building block in multilingual Natural Language Processing. In the present paper, we investigate a range of such models to find out how well they transfer discourse-level knowledge acr
Can pre-trained BERT for one language and GPT for another be glued together to translate texts? Self-supervised training using only monolingual data has led to the success of pre-trained (masked) language models in many NLP tasks. However, directly c
Abstract Prior studies in multilingual language modeling (e.g., Cotterell et al., 2018; Mielke et al., 2019) disagree on whether or not inflectional morphology makes languages harder to model. We attempt to resolve the disagreement and extend those s
Pretrained multilingual language models have become a common tool in transferring NLP capabilities to low-resource languages, often with adaptations. In this work, we study the performance, extensibility, and interaction of two such adaptations: voca