غالبا ما يتم تدريب العمل الحديث في الترجمة الآلية المتزامنة مع ترجمة جملة كاملة للجمدة التقليدية، مما يؤدي إلى الكمون المفرط أو الضرورة لتوقع الكلمات التي لا تعمل حتى الآن، عند التعامل مع زوج لغة تختلف أوامر الكلمات بشكل كبير.هذا على عكس الترجمة الفورية البشرية التي تنتج ترجمات راهبة إلى حد كبير على حساب الحكم النحوي من جملة تترجم.في هذه الورقة، بحيث نقترح خوارزمية لإعادة ترتيب وتحسين الجانب المستهدف من كوربوس ترجمة جملة كاملة، بحيث تتم محاذاة الكلمات / العبارات بين المصدر والجمل المستهدفة إلى حد كبير إلى حد كبير، باستخدام محاذاة Word والترجمة الآلية العصبية غير التلقائيةوبعدبعد ذلك، قم بتدريب نموذج الترجمة المتزامن المستخدمة على نطاق واسع في هذه الكائنات التي تم إعادة ترتيبها وإعادة ترتيبها.يؤدي النهج المقترح إلى تحسين درجات BLEU والترجمات الناتجة مع إظهار عائدي معززة بالجمل المصدر.
Recent work in simultaneous machine translation is often trained with conventional full sentence translation corpora, leading to either excessive latency or necessity to anticipate as-yet-unarrived words, when dealing with a language pair whose word orders significantly differ. This is unlike human simultaneous interpreters who produce largely monotonic translations at the expense of the grammaticality of a sentence being translated. In this paper, we thus propose an algorithm to reorder and refine the target side of a full sentence translation corpus, so that the words/phrases between the source and target sentences are aligned largely monotonically, using word alignment and non-autoregressive neural machine translation. We then train a widely used wait-k simultaneous translation model on this reordered-and-refined corpus. The proposed approach improves BLEU scores and resulting translations exhibit enhanced monotonicity with source sentences.
References used
https://aclanthology.org/
We describe our submission to the IWSLT 2021 shared task on simultaneous text-to-text English-German translation. Our system is based on the re-translation approach where the agent re-translates the whole source prefix each time it receives a new sou
This paper describes NAIST's system for the English-to-Japanese Simultaneous Text-to-text Translation Task in IWSLT 2021 Evaluation Campaign. Our primary submission is based on wait-k neural machine translation with sequence-level knowledge distillation to encourage literal translation.
Simultaneous translation is a task in which translation begins before the speaker has finished speaking, so it is important to decide when to start the translation process. However, deciding whether to read more input words or start to translate is d
Paraphrase generation is an important task in natural language processing. Previous works focus on sentence-level paraphrase generation, while ignoring document-level paraphrase generation, which is a more challenging and valuable task. In this paper
We propose a generative framework for simultaneous machine translation. Conventional approaches use a fixed number of source words to translate or learn dynamic policies for the number of source words by reinforcement learning. Here we formulate simu