في هذه الورقة، نقدم نظام TMU العصبي الخاص بنا (NMT) مقدم له مهمة براءات الاختراع (اليابانية والإنجليزية الكورية اليابانية) من ورشة العمل الثامنة حول الترجمة الآسيوية (Nakazawa et al.، 2021).في الآونة الأخيرة، اقترحت عدة دراسات طرز فك التشفير المدربة مسبقا باستخدام بيانات أحادية الأونلينغ.تم عرض واحدة من النماذج المدربة مسبقا، بارت (لويس وآخرون، 2020)، لتحسين دقة الترجمة عن طريق ضبط الدقيقة مع بيانات ثنائية اللغة.ومع ذلك، قاموا بتجريد الترجمة الإنجليزية الرومانية فقط باستخدام اللغة الإنجليزية بارت.في هذه الورقة، ندرس فعالية بارت اليابانية باستخدام مكتب براءات الاختراع الياباني Corpus 2.0.تشير تجاربنا إلى أن البارت الياباني يمكنه أيضا تحسين دقة الترجمة في كل من الترجمات اليابانية اليابانية والإنجليزية الكورية.
In this paper, we introduce our TMU Neural Machine Translation (NMT) system submitted for the Patent task (Korean Japanese and English Japanese) of 8th Workshop on Asian Translation (Nakazawa et al., 2021). Recently, several studies proposed pre-trained encoder-decoder models using monolingual data. One of the pre-trained models, BART (Lewis et al., 2020), was shown to improve translation accuracy via fine-tuning with bilingual data. However, they experimented only Romanian!English translation using English BART. In this paper, we examine the effectiveness of Japanese BART using Japan Patent Office Corpus 2.0. Our experiments indicate that Japanese BART can also improve translation accuracy in both Korean Japanese and English Japanese translations.
References used
https://aclanthology.org/
Neural Machine Translation (NMT) is a predominant machine translation technology nowadays because of its end-to-end trainable flexibility. However, NMT still struggles to translate properly in low-resource settings specifically on distant language pa
This paper describes ANVITA-1.0 MT system, architected for submission to WAT2021 MultiIndicMT shared task by mcairt team, where the team participated in 20 translation directions: English→Indic and Indic→English; Indic set comprised of 10 Indian lang
This paper describes the work and the systems submitted by the IIIT-Hyderbad team in the WAT 2021 MultiIndicMT shared task. The task covers 10 major languages of the Indian subcontinent. For the scope of this task, we have built multilingual systems
This paper describes NAIST's system for the English-to-Japanese Simultaneous Text-to-text Translation Task in IWSLT 2021 Evaluation Campaign. Our primary submission is based on wait-k neural machine translation with sequence-level knowledge distillation to encourage literal translation.
Simultaneous span detection and classification is a task not currently addressed in standard NLP frameworks. The present paper describes why and how an EncoderDecoder model was used to combine span detection and classification to address subtask 2 of SemEval-2021 Task 6.