ترغب بنشر مسار تعليمي؟ اضغط هنا

تصف هذه الورقة تقديمنا للمهمة المشتركة على MT غير المنشورة ومدونة منخفضة للغاية في WMT 2021. لقد قدمنا أنظمة لأزواجين لغتان: الألمانية ↔ Sorbian العلوي (DE ↔ HSB) والصوربي الألماني السفلي (DSB).ل De ↔ HSB، نحن نتأرجح بنظامنا باستخدام كتلة (تسلسل ملثم ين للتسلسل) الهدف ثم Finetune باستخدام الترجمة الترجمة الترجمة الترجمة التكرارية.يتم تنفيذ Finetunng النهائي باستخدام البيانات المتوازية المقدمة لأهداف الترجمة.ل de ↔ DSB، لا يتم توفير بيانات متوازية في المهمة، نستخدم نموذج DEFS HSB النهائي كهيئة نموذج DSB وتدريبه على الترجمة الترجمة الترجمة المتكررة، باستخدام نفس المفردات كما هو مستخدم في de ↔ HSBنموذج.
غالبا ما يقتصر الترجمة الآلية العصبية لغات الموارد المنخفضة (LRL) على عدم وجود بيانات تدريبية متاحة، مما يجعل من الضروري استكشاف تقنيات إضافية لتحسين جودة الترجمة.نقترح استخدام خوارزمية تجزئة الكلمات الفرعية للترميز (PRPE) بادئة الجذر (PRPE) لتحسين ج ودة الترجمة ل LRLS، باستخدام لغتين تغليف كدراسات حالة: Quechua والإندونيسية.أثناء تجاربنا، نعيد إدخال كوربوس موازية لترجمة Quechua-Spanish التي كانت غير متوفرة سابقا ل NMT.تظهر تجاربنا أهمية تجزئة الكلمات الفرعية المناسبة، والتي يمكن أن تذهب بقدر تحسين جودة الترجمة عبر الأنظمة المدربة على كميات أكبر بكثير من البيانات.نظهر هذا من خلال تحقيق نتائج حديثة لكلتا اللغتين، والحصول على درجات بلو أعلى من النماذج الكبيرة المدربة مسبقا مع كميات أقل بكثير من البيانات.
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا