في هذه الورقة، نقدم مساهمة مشتركة من المهمة المشتركة ومقاييس WMT 2021.مع تركيز هذا العام على متري الجودة متعددة الأبعاد (MQM) باعتباره التقييم البشري الحقيقة الأرضية، كان هدفنا هو توجيه المذنب نحو الارتباطات الأعلى مع MQM.نحن نقوم بذلك عن طريق التدريب المسبق أولا على التقييمات المباشرة ثم ضبط نتائج MQM تطبيع Z.في تجاربنا، نعرض أيضا أن نماذج المذنب المجانية المرجعية أصبحت تنافسية للنماذج القائمة على المراجع، حتى تتفوق على أفضل نموذج مذنب من عام 2020 في بيانات تطوير هذا العام.بالإضافة إلى ذلك، نقدم Cometinho، وهو نموذج مذنب خفيف الوزن هو 19x أسرع في وحدة المعالجة المركزية من النموذج الأصلي، مع تحقيق الارتباطات الحديثة أيضا مع MQM.أخيرا، في QE كمسار متري، شاركنا أيضا مع نموذج QE المدرب باستخدام إطار OpenKiwi الاستفادة من درجات MQM وشروح مستوى الكلمة.
In this paper, we present the joint contribution of Unbabel and IST to the WMT 2021 Metrics Shared Task. With this year's focus on Multidimensional Quality Metric (MQM) as the ground-truth human assessment, our aim was to steer COMET towards higher correlations with MQM. We do so by first pre-training on Direct Assessments and then fine-tuning on z-normalized MQM scores. In our experiments we also show that reference-free COMET models are becoming competitive with reference-based models, even outperforming the best COMET model from 2020 on this year's development data. Additionally, we present COMETinho, a lightweight COMET model that is 19x faster on CPU than the original model, while also achieving state-of-the-art correlations with MQM. Finally, in the QE as a metric'' track, we also participated with a QE model trained using the OpenKiwi framework leveraging MQM scores and word-level annotations.
المراجع المستخدمة
https://aclanthology.org/
نقدم المساهمة المشتركة في IST و Grongel بمهمة WMT 2021 المشتركة بشأن تقدير الجودة.شارك فريقنا في مهمتين: التقييم المباشر وجهد التحرير بعد، يشمل ما مجموعه 35 تقريرا.بالنسبة لجميع التقديمات، ركزت جهودنا على تدريب النماذج متعددة اللغات على رأس الهندسة ا
تصف هذه الورقة تقديم Papago إلى مهمة تقدير الجودة WMT 2021 1: التقييم المباشر على مستوى الجملة.يستكشف نظام تقدير الجودة متعدد اللغات لدينا مزيج من نماذج اللغة المحددة مسبقا وبنية التعلم متعددة المهام.نقترح خط أنابيب تدريب تكراري يعتمد على ما يحقظ بكم
في هذه الورقة، نصف إنشادنا إلى المهمة المشتركة بمقاييس WMT 2021.نستخدم الأسئلة والأجوبة التي تم إنشاؤها تلقائيا لتقييم جودة أنظمة الترجمة الآلية (MT).إن تقديمنا يبني على إطار MTEQA المقترح مؤخرا.تظهر التجارب على مجموعات بيانات تقييم WMT20 أنه على مست
تقدم هذه الورقة المهمة المشتركة 2021 على تحليل المشاعر الأبعاد للنصوص التعليمية التي تسعى إلى تحديد درجة المعنويات ذات القيمة الحقيقية لتعليقات التقييم الذاتي كتبها الطلاب الصينيين في كل من التكافؤ والأبعاد الإثراية.يمثل Valence درجة المشاعر اللطيفة
تقدم هذه الورقة التقديم المشترك JHU-Microsoft لتقدير جودة WMT 2021 المهمة المشتركة.نحن نشارك فقط في المهمة 2 (تقدير جهود ما بعد التحرير) للمهمة المشتركة، مع التركيز على تقدير الجودة على مستوى الكلمات المستهدف.التقنيات التي تجربناها مع تضمين تدريب محو