ترجمة آلة متعددة الوسائط (MMT) تثري النص المصدر بمعلومات مرئية للترجمة.لقد اكتسبت شعبية في السنوات الأخيرة، وقد اقترح العديد من خطوط الأنابيب في نفس الاتجاه.ومع ذلك، تفتقر المهمة إلى مجموعات بيانات الجودة لتوضيح مساهمة الوسيلة البصرية في أنظمة الترجمة.في هذه الورقة، نقترح نظامنا تحت اسم الفريق فولتا لمهمة الترجمة متعددة الوسائط في WAT 2021 من الإنجليزية إلى الهندية.نشارك أيضا في التراكب الفرعي النصي فقط لنفس زوج اللغة التي نستخدمها MBART، وهي نموذج تسلسل متعدد اللغات مسبقا.بالنسبة للترجمة متعددة الوسائط، نقترح تعزيز المدخلات النصية من خلال إحضار المعلومات المرئية إلى مجال نصي عن طريق استخراج علامات الكائنات من الصورة.نستكشف أيضا متانة نظامنا عن طريق مهينة النص المصدر بشكل منهجي.أخيرا، نحقق درجة بلو من 44.6 و 51.6 في مجموعة الاختبار ومجموعة التحدي بمهمة متعددة الوسائط.
Multimodal Machine Translation (MMT) enriches the source text with visual information for translation. It has gained popularity in recent years, and several pipelines have been proposed in the same direction. Yet, the task lacks quality datasets to illustrate the contribution of visual modality in the translation systems. In this paper, we propose our system under the team name Volta for the Multimodal Translation Task of WAT 2021 from English to Hindi. We also participate in the textual-only subtask of the same language pair for which we use mBART, a pretrained multilingual sequence-to-sequence model. For multimodal translation, we propose to enhance the textual input by bringing the visual information to a textual domain by extracting object tags from the image. We also explore the robustness of our system by systematically degrading the source text. Finally, we achieve a BLEU score of 44.6 and 51.6 on the test set and challenge set of the multimodal task.
References used
https://aclanthology.org/
Multilingual Neural Machine Translation (NMT) enables one model to serve all translation directions, including ones that are unseen during training, i.e. zero-shot translation. Despite being theoretically attractive, current models often produce low
In this paper, we show that automatically-generated questions and answers can be used to evaluate the quality of Machine Translation (MT) systems. Building on recent work on the evaluation of abstractive text summarization, we propose a new metric for system-level MT evaluation, compare it with other state-of-the-art solutions, and show its robustness by conducting experiments for various MT directions.
Existing approaches for machine translation (MT) mostly translate given text in the source language into the target language and without explicitly referring to information indispensable for producing proper translation. This includes not only inform
Recipe texts are an idiosyncratic form of instructional language that pose unique challenges for automatic understanding. One challenge is that a cooking step in one recipe can be explained in another recipe in different words, at a different level o
Abstract We find that the requirement of model interpretations to be faithful is vague and incomplete. With interpretation by textual highlights as a case study, we present several failure cases. Borrowing concepts from social science, we identify th