تمكن الترجمة الآلية العصبية متعددة اللغات (NMT) نموذج واحد لخدمة جميع اتجاهات الترجمة، بما في ذلك تلك التي هي غير مرئية أثناء التدريب، I.E. Zero-Shot الترجمة. على الرغم من أن النماذج الحالية جذابة من الناحية النظرية غالبا ما تنتج ترجمات منخفضة الجودة - لا تفشل عادة في إنتاج مخرجات باللغة المستهدفة الصحيحة. في هذا العمل، نلاحظ أن الترجمة المستهلكة المستهدفة هي المهيمنة حتى في أنظمة قوية متعددة اللغات، تدربت على كورسا متعددة اللغات الضخمة. لمعالجة هذه المشكلة، نقترح نهج مشترك لتنظيم نماذج NMT على مستوى التمثيل ومستوى التدرج. في مستوى التمثيل، نستفيد مهمة التنبؤ باللغة المستهدفة المساعدة لتنظيم مخرجات فك ترميز الكفر للاحتفاظ بمعلومات حول اللغة المستهدفة. عند مستوى التدرج، نستفيد كمية صغيرة من البيانات المباشرة (بآلاف أزواج الجملة) لتنظيم تدرجات النماذج. توضح نتائجنا أن نهجنا فعال للغاية في حد سواء تقليل حوادث الترجمة المستهدفة وتحسين أداء الترجمة الصفرية بواسطة +5.59 و +10.38 بلو على مجموعات بيانات WMT و OPUS على التوالي. علاوة على ذلك، تظهر التجارب أن طريقتنا تعمل أيضا بشكل جيد عندما لا يتوفر كمية صغيرة من البيانات المباشرة.
Multilingual Neural Machine Translation (NMT) enables one model to serve all translation directions, including ones that are unseen during training, i.e. zero-shot translation. Despite being theoretically attractive, current models often produce low quality translations -- commonly failing to even produce outputs in the right target language. In this work, we observe that off-target translation is dominant even in strong multilingual systems, trained on massive multilingual corpora. To address this issue, we propose a joint approach to regularize NMT models at both representation-level and gradient-level. At the representation level, we leverage an auxiliary target language prediction task to regularize decoder outputs to retain information about the target language. At the gradient level, we leverage a small amount of direct data (in thousands of sentence pairs) to regularize model gradients. Our results demonstrate that our approach is highly effective in both reducing off-target translation occurrences and improving zero-shot translation performance by +5.59 and +10.38 BLEU on WMT and OPUS datasets respectively. Moreover, experiments show that our method also works well when the small amount of direct data is not available.
المراجع المستخدمة
https://aclanthology.org/
نماذج الترجمة العصبية متعددة اللغات تعامل مع لغة مصدر واحدة في وقت واحد.ومع ذلك، فقد أظهر العمل السابق أن الترجمة من لغات مصدر متعددة تعمل على تحسين جودة الترجمة.تختلف عن الأساليب الحالية على الترجمة المتعددة المصدر التي تقتصر على سيناريو الاختبار حي
تطوير نموذج متعدد اللغات موحدة كان هدف متابعة طويلا للترجمة الآلية.ومع ذلك، فإن الأساليب الحالية تعاني من تدهور الأداء - نموذج واحد متعدد اللغات أدنى من المتدربين بشكل منفصل ثنائي اللغة على لغات الموارد الغنية.نحن نقوم بالتخمين أن مثل هذه الظاهرة من
هل يمكن لصق Bert مدربة مسبقا بلغة واحدة و GPT لآخر لترجمة النصوص؟يؤدي التدريب للإشراف على الذات باستخدام بيانات أحادية الأونلينغ فقط إلى نجاح نماذج اللغة المدربة مسبقا (ملثمين) في العديد من مهام NLP.ومع ذلك، فإن ربط بيرت مباشرة كتشفير و GPT حيث أن وح
تعاني ترجمة الآلات العصبية التي تعتمد على نص ثنائي اللغة مع بيانات تدريبية محدودة من التنوع المعجمي، والتي تقلل من دقة ترجمة الكلمات النادرة وتقلص من تعميم نظام الترجمة.في هذا العمل، نستخدم التسميات التوضيحية المتعددة من مجموعة بيانات متعددة 30 ألفا
عادة ما يتم تكليف الترجمة الآلية العصبية متعددة الموارد (MNMT) بتحسين أداء الترجمة على أزواج لغة واحدة أو أكثر بمساعدة أزواج لغة الموارد عالية الموارد.في هذه الورقة، نقترح اثنين من المناهج البحث البسيطة القائمة على البحث - طلب بيانات التدريب المتعدد