ترغب بنشر مسار تعليمي؟ اضغط هنا

تقدم جامعة إدنبرة الإنجليزية والألمانية والإنجليزية-هوسا لمهمة الترجمة من الأخبار WMT21

The University of Edinburgh's English-German and English-Hausa Submissions to the WMT21 News Translation Task

344   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

تقدم هذه الورقة تقييدات جامعة إدنبرة المقيدة لأنظمة اللغة الإنجليزية والألمانية والإنجليزية إلى المهمة المشتركة WMT 2021 بشأن ترجمة الأخبار.نحن نبني أنظمة EN-DE في ثلاث مراحل: تصفية Corpus، الترجمة الخلفية، والضبط الجميل.بالنسبة إلى EN-HA، نستخدم نهجا للترجمة مرة أخرى في أعلى نماذج الإنشاء المدرب مسبقا والتحقيق في رسم الخرائط المفردات.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

تقدم هذه الورقة التقديمات بجامعة ADAM MICKIECZ (AMU) لمهمة الترجمة الإخبارية WMT 2021.التركيز التقديمات على اتجاهات ترجمة English↔hausa، وهي سيناريو ترجمة موارد منخفضة بين اللغات البعيدة.ينطوي نهجنا على تنظيف بيانات شامل، ونقل التعلم باستخدام زوج لغة الموارد عالية الموارد، والتدريب التكراري، واستخدام بيانات أحادية المونولينغ عبر الترجمة الخلفي.نقوم بتجربة نهج NMT و PB-SMT على حد سواء، باستخدام بنية المحولات الأساسية لجميع نماذج NMT أثناء الاستفادة من أنظمة PB-SMT كحلول أساسية مماثلة.
تصف هذه الورقة أنظمة Fujitsu Dmath المستخدمة لترجمة WMT 2021، ومهام الترجمة الطبية الحيوية.ركزنا على أزواج منخفضة الموارد، باستخدام نظام بسيط.أجرينا تجارب على اللغة الإنجليزية هوسا، Xhosa-Zulu والإنجليزية-الباسك، وقدمت نتائج Xhosa → Zulu في مهمة ترجم ة الأخبار، والإنجليزية → الباسك في مهمة الترجمة الطبية الحيوية، ومصادر الترجمة التابعة للمصطلح والمصطلحات.يجمع نظامنا بين تسرب BPE، ميزات الكلمات الفرعية الفرعية والترجمة الخلفي مع نموذج محول (قاعدة)، وتحقيق نتائج جيدة على مجموعات التقييم.
تصف هذه الورقة أنظمة Tencent Translation ذات المهمة المشتركة WMT21. نشارك في مهمة ترجمة الأخبار على ثلاث أزواج لغة: الصينية-الإنجليزية والإنجليزية والصينية والألمانية والإنجليزية. يتم بناء أنظمتنا على نماذج محولات مختلفة مع تقنيات جديدة تتكيف من عملن ا البحثي الأخير. أولا، نجمع بين طرق تكبير البيانات المختلفة بما في ذلك الترجمة المرجودة والترجمة الأمامية والتدريب من اليمين إلى اليسار لتوسيع بيانات التدريب. نستخدم أيضا تحيز التغطية اللغوية وتجديد البيانات ونهج أخذ العينات المستندة إلى عدم اليقين لتحديد بيانات ذات صلة بالمحتوى وعالية الجودة من كوربورا متوازية ومونولجة كبيرة. نتوقع أن يتم ضبطه بشكل جيد في المجال، ونقترح أيضا نماذج واحدة المحبوثة نموذج واحد "" لنموذج خصائص نموذجية لأنواع الأخبار المختلفة عند مراحل الركود الدقيقة وفك التشفير. علاوة على ذلك، نستخدم خوارزمية الفرقة القائمة على الجشع وطريقة الفرقة المتناقلة لتعزيز أنظمتنا. بناء على نجاحنا في آخر WMT، فإننا أعملنا باستمرار تقنيات متقدمة مثل التدريب الدفاعي الكبير واختيار البيانات وتصفية البيانات. أخيرا، يحقق نظامنا الصيني والإنجليزي المقيد 33.4 درجة بلو حساسة للحالة، وهو الأعلى بين جميع التقديمات. يتم تصنيف نظام اللغة الإنجليزية الألمانية في المركز الثاني وفقا لذلك.
لقد أرسلنا نماذج يونيين الاتجاهين، واحدة للغة الإنجليزية ← اتجاه أيسلندي وغيرها من الأيسلاندية ← اتجاه اللغة الإنجليزية.يعتمد نظام الترجمة الأخبار لدينا على الهندسة المعمارية الكبيرة المحول، ويستفيد من تصفية Corpora والترجمة الخلفي والترجمة الأمامية المطبقة على البيانات المتوازية والأنتجة على حد سواء
نحن تصف تقديمنا إلى المهمة المشتركة IWSLT 2021 على الترجمة الإنجليزية-الألمانية المتزامنة.يعتمد نظامنا على نهج إعادة الترجمة حيث يقوم الوكيل بإعادة ترجمة بادئة المصدر بأكملها في كل مرة يتلقى رمزية مصدر جديد.ومع ذلك، فإن هذا النهج لديه ميزة القدرة على استخدام محرك الاستدلال الآلات العصبية القياسية (NMT) مع بحث شعاع، ومع ذلك، هناك خطر من أن عدم التوافق بين عمليات إعادة الترجمات المتعاقبة ستحلل الإخراج.لتحسين جودة الترجمات، نقوم بتجربة مناهج مختلفة: نستخدم حجم ثابت في بداية الجملة، ونحن نستخدم درجة نموذج اللغة للكشف عن وحدات مترجمة، ونحن نطبق اخفاء ديناميكي لتحديد متى تكون الترجمة غير مستقروبعدنجد أن مزيج من النقاط النموذجي للمخف واللغة الديناميكي يحصل على أفضل إيقاف تشغيل جودة الكمون.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا