حاليا، تتلقى الترجمة متعددة اللغات الآلية أكثر اهتماما أكثر وأكثر لأنها تجلب أداء أفضل لغات الموارد المنخفضة (LRLS) وتوفر مساحة أكبر. ومع ذلك، فإن نماذج الترجمة متعددة اللغات الحالية تواجه تحديا شديدا: عدم التوازن. نتيجة لذلك، فإن أداء الترجمة من لغات مختلفة في نماذج الترجمة متعددة اللغات مختلفة تماما. نقول أن مشكلة الاختلال هذه تنبع من كفاءات التعليم المختلفة لغات مختلفة. لذلك، نحن نركز على تحقيق التوازن بين الكفاءات التعليمية لغات مختلفة واقتراح مناهج التعلم القائم على الكفاءة للترجمة الآلية متعددة اللغات، والتي تسمى CCL-M. على وجه التحديد، نقوم أولا بتحديد كفاءتين للمساعدة في جدولة لغات الموارد العالية (HRLS) ولغات المورد المنخفضة: 1) الكفاءة التي تم تقييمها ذاتيا، وتقييم مدى تعلم اللغة نفسها؛ 2) الكفاءة التي تم تقييمها HRLS، وتقييم ما إذا كانت LRL جاهزة للتعلم وفقا لخلاف HRLS الذي تم تقييمه الذاتي. استنادا إلى الكفاءات المذكورة أعلاه، نستخدم خوارزمية CCL-M المقترحة إضافة لغات جديدة تدريجيا في التدريب المحدد بطريقة تعلم المناهج الدراسية. علاوة على ذلك، نقترح استراتيجية أخذان رصاصة ديناميكية متوازنة من الكفاءة النووية لتحسين عينات التدريب بشكل أفضل في التدريب متعدد اللغات. تظهر النتائج التجريبية أن نهجنا حقق مكاسب أداء ثابتة وهامة مقارنة بالنهج السابق للدولة السابقة بشأن مجموعة بيانات محادثات تيد.
Currently, multilingual machine translation is receiving more and more attention since it brings better performance for low resource languages (LRLs) and saves more space. However, existing multilingual machine translation models face a severe challenge: imbalance. As a result, the translation performance of different languages in multilingual translation models are quite different. We argue that this imbalance problem stems from the different learning competencies of different languages. Therefore, we focus on balancing the learning competencies of different languages and propose Competence-based Curriculum Learning for Multilingual Machine Translation, named CCL-M. Specifically, we firstly define two competencies to help schedule the high resource languages (HRLs) and the low resource languages: 1) Self-evaluated Competence, evaluating how well the language itself has been learned; and 2) HRLs-evaluated Competence, evaluating whether an LRL is ready to be learned according to HRLs' Self-evaluated Competence. Based on the above competencies, we utilize the proposed CCL-M algorithm to gradually add new languages into the training set in a curriculum learning manner. Furthermore, we propose a novel competence-aware dynamic balancing sampling strategy for better selecting training samples in multilingual training. Experimental results show that our approach has achieved a steady and significant performance gain compared to the previous state-of-the-art approach on the TED talks dataset.
المراجع المستخدمة
https://aclanthology.org/
عادة ما يتم تكليف الترجمة الآلية العصبية متعددة الموارد (MNMT) بتحسين أداء الترجمة على أزواج لغة واحدة أو أكثر بمساعدة أزواج لغة الموارد عالية الموارد.في هذه الورقة، نقترح اثنين من المناهج البحث البسيطة القائمة على البحث - طلب بيانات التدريب المتعدد
وقد وجدت الأعمال الحديثة دليلا على التحيز بين الجنسين في نماذج من الترجمة الآلية ودقة Aquerence باستخدام مجموعات بيانات التشخيص الاصطناعية في الغالب. في حين أن هذه التحيز الكمي في تجربة خاضعة للرقابة، فإنها غالبا ما تفعل ذلك على نطاق صغير وتتكون في م
تتطلب أساليب التعلم المنهج الحالية للترجمة الآلية العصبية (NMT) أخذ العينات مبالغ كافية من العينات "من بيانات التدريب في مرحلة التدريب المبكر. هذا غير قابل للتحقيق دائما لغات الموارد المنخفضة حيث تكون كمية البيانات التدريبية محدودة. لمعالجة مثل هذا ا
تطوير نموذج متعدد اللغات موحدة كان هدف متابعة طويلا للترجمة الآلية.ومع ذلك، فإن الأساليب الحالية تعاني من تدهور الأداء - نموذج واحد متعدد اللغات أدنى من المتدربين بشكل منفصل ثنائي اللغة على لغات الموارد الغنية.نحن نقوم بالتخمين أن مثل هذه الظاهرة من
نقترح مخطط تكييف المفردات المباشر لتوسيع نطاق القدرة اللغوية لنماذج الترجمة متعددة اللغات، مما يمهد الطريق نحو التعلم المستمر الفعال للترجمة الآلية متعددة اللغات.نهجنا مناسب لمجموعات البيانات واسعة النطاق، ينطبق على اللغات البعيدة مع البرامج النصية غ