في هذه الورقة، نظهر أن الأسئلة والأجوبة التي تم إنشاؤها تلقائيا يمكن استخدامها لتقييم جودة أنظمة الترجمة الآلية (MT).بناء على العمل الحديث على تقييم تلخيص نص مبيعات، نقترح مقياس جديد لتقييم MT على مستوى النظام، ومقارنته بالحلول الأخرى الأخرى، وإظهار متانة لها من خلال إجراء تجارب لمختلف اتجاهات MT.
In this paper, we show that automatically-generated questions and answers can be used to evaluate the quality of Machine Translation (MT) systems. Building on recent work on the evaluation of abstractive text summarization, we propose a new metric for system-level MT evaluation, compare it with other state-of-the-art solutions, and show its robustness by conducting experiments for various MT directions.
المراجع المستخدمة
https://aclanthology.org/
إن التنبؤ بإجابة سؤال متعلقة بالمنتج هو مجال ناشئ من البحوث وجذب مؤخرا الكثير من الاهتمام. الإجابة على الأسئلة الذاتية والقائمة على الرأي هي الأكثر تحديا بسبب الاعتماد على المحتوى الذي تم إنشاؤه العملاء. يعمل السابق في الغالب على التنبؤ بالإجابة على
نقدم مجموعة بيانات جديدة لإعادة كتابة الأسئلة في سياق المحادثة (QRECC)، والتي تحتوي على محادثات 14 ألف مع أزواج من الإجابات السؤال 80k.تتمثل المهمة في QRECC في العثور على إجابات على أسئلة المحادثة داخل مجموعة من صفحات الويب 10 أمتار (تقسيم إلى 54 متر
تصف هذه الدراسة تطوير سؤال مجتمعي برتغالي يرد على معيار في مجال ميليتوس السكري باستخدام نهج إيصال الأسئلة المعترف به (RQE). بالنظر إلى سؤال الفرضية، يهدف RQE إلى استرداد أسئلة متشابهة دلالة الشكل، أجاب بالفعل على أرشفة. إننا نبني كوربا رئيسيا باللغة
يتم تدريب معظم أنظمة الترجمة الآلية المتزامنة (SIMT) وتقييمها في Offline Translation Corpora.نحن نقول أن أنظمة SIMT يجب تدريبها واختبارها على بيانات التفسير الحقيقي.لتوضيح هذه الحجة، نقترح مجموعة اختبار التفسير وإجراء تقييم واقعي ل Simt المدربة على ا
في ترجمة النص حيث تعتبر المشاعر الرسالة الرئيسية، يعطي المترجمون البشريون اهتماما خاصا للكلمات تحمل المعنويات. السبب هو أن ترجمة غير صحيحة لهذه الكلمات سوف تفوت الجانب الأساسي للنص المصدر، أي شعور المؤلف. في العالم عبر الإنترنت، تستخدم أنظمة MT على ن