تقدم هذه الورقة التقديمات بجامعة ADAM MICKIECZ (AMU) لمهمة الترجمة الإخبارية WMT 2021.التركيز التقديمات على اتجاهات ترجمة English↔hausa، وهي سيناريو ترجمة موارد منخفضة بين اللغات البعيدة.ينطوي نهجنا على تنظيف بيانات شامل، ونقل التعلم باستخدام زوج لغة الموارد عالية الموارد، والتدريب التكراري، واستخدام بيانات أحادية المونولينغ عبر الترجمة الخلفي.نقوم بتجربة نهج NMT و PB-SMT على حد سواء، باستخدام بنية المحولات الأساسية لجميع نماذج NMT أثناء الاستفادة من أنظمة PB-SMT كحلول أساسية مماثلة.
This paper presents the Adam Mickiewicz University's (AMU) submissions to the WMT 2021 News Translation Task. The submissions focus on the English↔Hausa translation directions, which is a low-resource translation scenario between distant languages. Our approach involves thorough data cleaning, transfer learning using a high-resource language pair, iterative training, and utilization of monolingual data via back-translation. We experiment with NMT and PB-SMT approaches alike, using the base Transformer architecture for all of the NMT models while utilizing PB-SMT systems as comparable baseline solutions.
المراجع المستخدمة
https://aclanthology.org/