ترغب بنشر مسار تعليمي؟ اضغط هنا

تقارير Bering Lab في مهمة مشتركة WAT 2021

Bering Lab's Submissions on WAT 2021 Shared Task

267   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

تقدم هذه الورقة تقديم مختبر Bering إلى المهام المشتركة للورشة الثامنة حول الترجمة الآسيوية (WAT 2021) على JPC2 و SAP.شاركنا في جميع المهام على JPC2 ومهام مجال تكنولوجيا المعلومات على NICT-SAP.نهجنا لجميع المهام يركز بشكل أساسي على بناء أنظمة NMT في كورسا خاصة بالمجال.لقد زحفنا أزواج وثيقة براءات الاختراع للغة الإنجليزية اليابانية والصينية اليابانية والكورية واليابانية.بعد تنظيف البيانات الصاخبة، بنينا كوربا متوازيا عن طريق مواءمة هذه الجمل مع درجات التشابه على مستوى الجملة.أيضا، للحصول على بيانات اختبار SAP، جمعنا مجموعة بيانات OPUS بما في ذلك ثلاثة كورسور كورسا.ثم تدريب محول على مجموعة البيانات التي تم جمعها.احتل إرسالنا في المرتبة الأولى في ثمانية من أربعة عشر مهام، وتحقيق ما يصل إلى تحسين 2.87 ل JPC2 و 8.79 ل SAP NIST-SAP في النتيجة بلو.

المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

توضح هذه الورقة نظام Anvita-1.0 MT، Architeted for Survision To Wath2021 Multiindicmt Task من فريق Mcairt، حيث شارك الفريق في 20 اتجاهات ترجمة: الإنجليزية → Werc و Indic → الإنجليزية؛ تشدد مجموعة تشل من 10 لغات هندية. نظام Anvita-1.0 MT يتكون من نماذ ج NMT متعددة اللغات واحد للغة الإنجليزية → اتجاهات MEDISTION وغيرها من الإرشادات وغيرها من الإرشادات الإنجليزية مع فك التشفير المشترك، والتموين 10 أزواج اللغة والعشرون اتجاهي الترجمة. بنيت النماذج الأساسية بناء على بنية المحولات وتدريبها على Multiindicmt Wat 2021 Corpora وزيادة الترجمة والترجمة الترجمة والترجمة الخاصة بتزوير البيانات الانتقائية، وفرقة نموذجية لتحسين التعميم. بالإضافة إلى ذلك، تم تقطير Multiindicmt Wat 2021 Corpora باستخدام سلسلة من عمليات التصفية قبل طرح التدريب. anvita-1.0 حقق أعلى درجة AM-FM النتيجة للغة الإنجليزية → البنغالية، 2nd للغة الإنجليزية → التاميل و 3 للإنجليزية → الهندية، البنغالية → الإنجليزية الاتجاهات في مجموعة الاختبار الرسمية. بشكل عام، فإن الأداء الذي حققه Anvita للتشج ← اتجاهات إنجليزية أفضل نسبيا من أن الإنجليزي → اتجاهات MEDIAL لجميع أزواج اللغة 10 عند تقييمها باستخدام Bleu and Ribes، على الرغم من أن الاتجاه نفسه غير مريح باستمرار عند تقييم AM-FM نفذت. بالمقارنة مع Bleu، فإن RIBES و AM-FM تستند إلى أنفيتا أفضل نسبيا بين جميع المشاركين المهام.
تقدم هذه الورقة تقديم مركز خدمة الترجمة Huawei (HW-TSC) إلى المهمة المشتركة MT Triangular 2021.نشارك في المهمة الروسية إلى الصينية بموجب الحالة المقيدة.نحن نستخدم بنية المحولات والحصول على أفضل أداء عبر متغير بأحجام أكبر معلمة.نقوم بإجراء بيانات مفصل ة مسبقا وتصفية البيانات المقدمة على نطاق ثنائي اللغة قدمها.تستخدم العديد من الاستراتيجيات لتدريب نماذجنا، مثل الترجمة متعددة اللغات، الترجمة الترجمة متعددة اللغات، الترجمة إلى الأمام، وتنظيم البيانات، ونقطة التفتيش المتوسطة، والوقاحة، والضبط الجميل، وما إلى ذلك. يحصل نظامنا على 32.5 بلو على مجموعة DEAS و 27.7 بلو على مجموعة الاختبار، أعلى الدرجات بين جميع التقديمات.
نحن تصف تقديم DCU-EPFL إلى مهمة مشتركة IWPT 2021: من النص الخام لتعزيز التبعيات العالمية. تتضمن المهمة تحليل الرسوم البيانية UD المحسنة، والتي تعد امتدادا لأشجار التبعية الأساسية المصممة لتكون أكثر تسهيلا نحو تمثيل الهيكل الدلالي. يتم التقييم على 29 شجرة Treebanks في 17 لغة ومطلوبة للمشاركين لتحليل البيانات من كل لغة تبدأ من السلاسل الخام. يستخدم نهجنا خط أنابيب Stanza لمعالجة الملفات النصية، XLM-Roberta للحصول على تمثيلات رمزية في السياق، ونموذج تسجيل الحافة والعلامات للتنبؤ الرسم البياني المحسن. أخيرا، ندير نص PostProcessing لضمان جميع مخرجاتنا هي الرسوم البيانية UD المحسنة سارية المفعول. يضع نظامنا السادس من أصل 9 مشاركا مع درجة مرفق محسنة خشنة (ELAS) 83.57. نقوم بإجراء تجارب إضافية بعد الموعد النهائي والتي تشمل استخدام Trankit لمعالجة ما قبل المعالجة، XLM-Roberta Large Protectenation، وتعلم المتعدد التعلم بين محلل التبعية الأساسية والمعززة. جميع هذه التعديلات تحسن النتيجة الأولية ونظامنا النهائي لديه إيلاس خشن 88.04.
في هذه الورقة، نبلغ عن النتائج التجريبية لنماذج الترجمة الآلية التي أجرتها فريق Nectec لمهام ترجمة WAT-2021. أساسا، تستند نماذجنا إلى الأساليب العصبية لكلا اتجاهين أزواج اللغة الإنجليزية ميانمار وميانمار الإنجليزية. تركز معظم نماذج الترجمة العصبية ال حالية (NMT) بشكل أساسي على تحويل البيانات المتسلسلة ولا تستخدم المعلومات الأساسية مباشرة. ومع ذلك، فإننا نقوم بإجراء نماذج الترجمة الآلية المتعددة المصدر (NMT) باستخدام Corpora متعددة اللغات مثل Corpus State Data Corpus أو Corpus Data Data Corpus، أو Corpus Data Data Pos-Deagged. الترجمة متعددة المصادر هي نهج لاستغلال مدخلات متعددة (على سبيل المثال بتنسيقتين مختلفتين) لزيادة دقة الترجمة. تم تنفيذ نموذج ترميز التشفير القائم على RNN مع آلية الاهتمام وبنية المحولات لتجرينا. أظهرت النتائج التجريبية أن النماذج المقترحة من الهندسة المعمارية القائمة على RNN تتفوق على نموذج خط الأساس لمهمة الترجمة الإنجليزية إلى ميانمار، ونماذج المحولات متعددة المصدر والمشتركة متعددة المصدر تحقق نتائج ترجمة أفضل من الأساس.
تصف الورقة طرز 3 NMT المقدمة من فريق ETRANSLEATION إلى مهمة مشتركة من WMT 2021 الأخبار.قمنا بتطوير أنظمة في أزواج اللغة المستخدمة بنشاط في خدمة إبعاد المفوضية الأوروبية.في مهمة أخبار WMT، شهدت السنوات الأخيرة زيادة مطردة في الحاجة إلى موارد حسابية لت دريب البنيات العميقة والمعقدة لإنتاج أنظمة تنافسية.أخذنا نهجا مختلفا واستعرضنا استراتيجيات بديلة تركز على اختيار البيانات وتصفية لتحسين أداء أنظمة الأساس.في المجال المهمة المقيدة للزوج باللغة الفرنسية - الألمانية نتج عنه نهجنا في أفضل نظام لهامش مهم في بلو.بالنسبة للأنظمة الأخرى (الإنجليزية - الألمانية والإنجليزية - التشيكية) حاولنا بناء نماذج تنافسية باستخدام أفضل الممارسات القياسية.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا