ترغب بنشر مسار تعليمي؟ اضغط هنا

أنظمة LMU ميونيخ لمهمة الترجمة WMT21 غير المنخفضة للغاية

The LMU Munich Systems for the WMT21 Unsupervised and Very Low-Resource Translation Task

357   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

نقدم طلباتنا إلى المهمة المشتركة WMT21 في الترجمة من موارد الموارد غير المنخفضة وغير المنخفضة للغاية بين الألمانية والألمانية والصورة الألمانية والسوربيانية، والروسية والجمع.يتم تدريب أنظمةنا المنخفضة الموارد (German↔upper Sorbian، Russian↔chuvash) مسبقا على أزواج عالية الموارد لغات ذات صلة.نحن نغلق هذه الأنظمة باستخدام البيانات الموازية الأصلية المتاحة وتحسينها من خلال الترجمة مرة أخرى مرة أخرى.يتم تهيئة نظام Sorbian German↔Lower غير المعدل من قبل أفضل نظام Sorbian العلوي وتحسينه من خلال الترجمة مرة أخرى باستخدام بيانات أحادية الاتجاه فقط.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

توضح هذه الورقة تقديم TENTRANS إلى مهمة مشتركة من Translation Translation منخفضة اللغات WMT21 لأزواج اللغة الرومانسية.تركز هذه المهمة على تحسين جودة الترجمة من الكاتالونية إلى Occitan والرومانية والإيطالية، بمساعدة لغات الموارد ذات الصلة ذات الصلة.نح ن نستخدم أساسا الترجمة المرجانية، والطرق القائمة على المحور، ونماذج متعددة اللغات، ونقل النموذج المدربين مسبقا، ونقل المعرفة داخل المجال لتحسين جودة الترجمة.في مجموعة الاختبار، يحقق نظامنا الأفضل المقدم بمتوسط 43.45 درجات بلو حساسة لحالة الأحرف عبر جميع أزواج الموارد المنخفضة.تتوفر بياناتنا ورمز النماذج المدربة مسبقا مسبقا في هذا العمل في أمثلة تقييم Tentrans.
تصف هذه الورقة مهمة Charles University الفرعية للمصطلحات المهمة المشتركة للترجمة في WMT21.الهدف من هذه المهمة هو تصميم نظام يترجم مع شروط معينة بناء على قاعدة بيانات المصطلحات المقدمة، مع الحفاظ على جودة الترجمة الشاملة عالية.تنافسنا في زوج اللغة الإ نجليزية الفرنسية.يعتمد نهجنا على توفير الترجمات المرغوبة إلى جانب جملة الإدخال وتدريب النموذج لاستخدام هذه المصطلحات المقدمة.نحن Lemmatize المصطلحات على حد سواء أثناء التدريب والاستدلال، للسماح للنموذج لمعرفة كيفية إنتاج الأشكال السطحية الصحيحة للكلمات، عندما تختلف عن النماذج المتوفرة في قاعدة بيانات المصطلحات.
في هذا العمل، تم تطوير وتقييم وتقييم أنظمة الترجمة الآلية العصبيةين كجزء من BILIRECTIONAL TAMIL-TELUGU Transmation Language Translation Transke Subtask في WMT21. تم استخدام مجموعة أدوات OpenNMT-PY لإنشاء النماذج النماذج الخاصة بالأنظمة السريعة، والتي تتابع النماذج التي تم تدريبها على مجموعات البيانات التدريبية التي تحتوي على Corpus الموازي وأخيرا تم تقييم النماذج على مجموعات بيانات Dev المقدمة كجزء من المهمة. تم تدريب كل من الأنظمة على محطة DGX مع 4 -V100 GPUs. أول نظام NMT في هذا العمل هو طراز ترميز تشفير من 6 طبقة محول، تدرب على 100000 خطوة تدريبية، مما يشبه تكوينه الجديد الذي يوفره OpenNMT-PY وهذا يستخدم لإنشاء نموذج للحصول على ترجمة ثنائية الاتجاه. يحتوي نظام NMT الثاني على نماذج ترجمة أحادية الاتجاه مع نفس التكوين كنظام أول كأول، مع إضافة ترميز زوج البايت البايت (BPE) لتخشيص الكلمات الفرعية من خلال طراز MultiBPEMB المدرب مسبقا. بناء على مقاييس تقييم DEV DataSet لكل من النظم، فإن النظام الأول I.E. لقد تم تقديم نموذج محول الفانيليا كنظام أساسي. نظرا لعدم وجود تحسينات في المقاييس أثناء تدريب النظام الثاني مع BPE، فقد تم تقديمه كأنظمة مضادة للتناقض.
تصف هذه الورقة تقديم مختبر Tencent AI المهمة المشتركة WMT2021 على الترجمة الطبية الحيوية في ثمانية اتجاهات اللغة: الإنجليزية والألمانية والفرنسية والفرنسية والإنجليزية والإسبانية والإنجليزية الروسية.استغلنا بديكنات محولات مختلفة واستراتيجيات الترجمة المرجانية وتحسينها لتحسين جودة الترجمة.بشكل ملموس، نستكشف MBART (ليو وآخرون، 2020) لإظهار فعالية استراتيجية الاحتجاج.تحتل إرسال طلباتنا (Tencent AI Lab Machine Translation، TMT) باللغة الألمانية / الفرنسية / الإسبانية⇒إنجللوي على التوالي وفقا لنتائج التقييم الرسمي من حيث درجات بلو.
تصف هذه الورقة أنظمة Tencent Translation ذات المهمة المشتركة WMT21. نشارك في مهمة ترجمة الأخبار على ثلاث أزواج لغة: الصينية-الإنجليزية والإنجليزية والصينية والألمانية والإنجليزية. يتم بناء أنظمتنا على نماذج محولات مختلفة مع تقنيات جديدة تتكيف من عملن ا البحثي الأخير. أولا، نجمع بين طرق تكبير البيانات المختلفة بما في ذلك الترجمة المرجودة والترجمة الأمامية والتدريب من اليمين إلى اليسار لتوسيع بيانات التدريب. نستخدم أيضا تحيز التغطية اللغوية وتجديد البيانات ونهج أخذ العينات المستندة إلى عدم اليقين لتحديد بيانات ذات صلة بالمحتوى وعالية الجودة من كوربورا متوازية ومونولجة كبيرة. نتوقع أن يتم ضبطه بشكل جيد في المجال، ونقترح أيضا نماذج واحدة المحبوثة نموذج واحد "" لنموذج خصائص نموذجية لأنواع الأخبار المختلفة عند مراحل الركود الدقيقة وفك التشفير. علاوة على ذلك، نستخدم خوارزمية الفرقة القائمة على الجشع وطريقة الفرقة المتناقلة لتعزيز أنظمتنا. بناء على نجاحنا في آخر WMT، فإننا أعملنا باستمرار تقنيات متقدمة مثل التدريب الدفاعي الكبير واختيار البيانات وتصفية البيانات. أخيرا، يحقق نظامنا الصيني والإنجليزي المقيد 33.4 درجة بلو حساسة للحالة، وهو الأعلى بين جميع التقديمات. يتم تصنيف نظام اللغة الإنجليزية الألمانية في المركز الثاني وفقا لذلك.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا