تقدم هذه الورقة التقديم المشترك JHU-Microsoft لتقدير جودة WMT 2021 المهمة المشتركة.نحن نشارك فقط في المهمة 2 (تقدير جهود ما بعد التحرير) للمهمة المشتركة، مع التركيز على تقدير الجودة على مستوى الكلمات المستهدف.التقنيات التي تجربناها مع تضمين تدريب محول Levenshtein وتعزيز البيانات مع مجموعة من الترجمة الأمامية والخلفية والرحلة الدائرية، والتحرير الزائف بعد إخراج MT.نوضح القدرة التنافسية لنظامنا مقارنة بناسي Openkiwi-XLM المعتمد على نطاق واسع.نظامنا هو أيضا نظام الترتيب العلوي في متري MT MCC لزوج اللغة الإنجليزية والألمانية.
This paper presents the JHU-Microsoft joint submission for WMT 2021 quality estimation shared task. We only participate in Task 2 (post-editing effort estimation) of the shared task, focusing on the target-side word-level quality estimation. The techniques we experimented with include Levenshtein Transformer training and data augmentation with a combination of forward, backward, round-trip translation, and pseudo post-editing of the MT output. We demonstrate the competitiveness of our system compared to the widely adopted OpenKiwi-XLM baseline. Our system is also the top-ranking system on the MT MCC metric for the English-German language pair.
المراجع المستخدمة
https://aclanthology.org/
تصف هذه الورقة تقديم Papago إلى مهمة تقدير الجودة WMT 2021 1: التقييم المباشر على مستوى الجملة.يستكشف نظام تقدير الجودة متعدد اللغات لدينا مزيج من نماذج اللغة المحددة مسبقا وبنية التعلم متعددة المهام.نقترح خط أنابيب تدريب تكراري يعتمد على ما يحقظ بكم
يصف هذا التقرير أن أنظمة ترجمة آلات Microsoft للمهمة المشتركة WMT21 على الترجمة ذات الجهاز متعدد اللغات على نطاق واسع.شاركنا في مسارات التقييم الثلاثة بما في ذلك المسار الكبير والمسارين الصغيرين حيث لا يتم حدوث المرء السابق وأن الأخيران مقيدان تماما.
يعد تقدير الجودة (QE) مكونا هاما لسير عمل الترجمة الآلي لأنه يقيم جودة الإخراج المترجم دون الترجمات المرجعية الاستشارية.في هذه الورقة، نناقش التقديم لدينا إلى المهمة المشتركة WMT 2021 QE.إننا نشارك في المهمة الفرعية الفرعية على مستوى الجملة 2 المهام
نقدم المساهمة المشتركة في IST و Grongel بمهمة WMT 2021 المشتركة بشأن تقدير الجودة.شارك فريقنا في مهمتين: التقييم المباشر وجهد التحرير بعد، يشمل ما مجموعه 35 تقريرا.بالنسبة لجميع التقديمات، ركزت جهودنا على تدريب النماذج متعددة اللغات على رأس الهندسة ا
في هذه الورقة، نصف إنشادنا إلى المهمة المشتركة بمقاييس WMT 2021.نستخدم الأسئلة والأجوبة التي تم إنشاؤها تلقائيا لتقييم جودة أنظمة الترجمة الآلية (MT).إن تقديمنا يبني على إطار MTEQA المقترح مؤخرا.تظهر التجارب على مجموعات بيانات تقييم WMT20 أنه على مست