عنصر رئيسي واحد من الترجمة الآلية العصبية هو استخدام مجموعات البيانات الكبيرة من المجالات والموارد المختلفة (E.G. Europarl، TED محادثات).تحتوي مجموعات البيانات هذه على مستندات مترجمة من قبل المترجمين المحترفين باستخدام أنماط الترجمة المختلفة ولكن ثابتة.على الرغم من ذلك، عادة ما يتم تدريب النموذج بطريقة لا يجسد صراحة مجموعة متنوعة من أنماط الترجمة الموجودة في البيانات ولا تترجم بيانات جديدة في أنماط مختلفة ويمكن التحكم فيها.في هذا العمل، نحقق في طرق زيادة حالة نموذج محول الفن مع معلومات المترجم المتوفرة جزئيا من بيانات التدريب.نظرا لأن نماذج الترجمة المعززة بأسلوبنا قادرة على التقاط الاختلافات النمط للمترجمين وإنشاء ترجمات مع أنماط مختلفة على البيانات الجديدة.في الواقع، تختلف الاختلافات التي تم إنشاؤها بشكل كبير، ما يصل إلى فرق النتيجة +4.5 بلو.على الرغم من ذلك، يؤكد التقييم البشري أن الترجمات من نفس النوعية.
One key ingredient of neural machine translation is the use of large datasets from different domains and resources (e.g. Europarl, TED talks). These datasets contain documents translated by professional translators using different but consistent translation styles. Despite that, the model is usually trained in a way that neither explicitly captures the variety of translation styles present in the data nor translates new data in different and controllable styles. In this work, we investigate methods to augment the state of the art Transformer model with translator information that is available in part of the training data. We show that our style-augmented translation models are able to capture the style variations of translators and to generate translations with different styles on new data. Indeed, the generated variations differ significantly, up to +4.5 BLEU score difference. Despite that, human evaluation confirms that the translations are of the same quality.
References used
https://aclanthology.org/
In this work, we study hallucinations in Neural Machine Translation (NMT), which lie at an extreme end on the spectrum of NMT pathologies. Firstly, we connect the phenomenon of hallucinations under source perturbation to the Long-Tail theory of Feldm
We propose a straightforward vocabulary adaptation scheme to extend the language capacity of multilingual machine translation models, paving the way towards efficient continual learning for multilingual machine translation. Our approach is suitable f
Terminological consistency is an essential requirement for industrial translation. High-quality, hand-crafted terminologies contain entries in their nominal forms. Integrating such a terminology into machine translation is not a trivial task. The MT
Many NLP models operate over sequences of subword tokens produced by hand-crafted tokenization rules and heuristic subword induction algorithms. A simple universal alternative is to represent every computerized text as a sequence of bytes via UTF-8,
The paper presents experiments in neural machine translation with lexical constraints into a morphologically rich language. In particular and we introduce a method and based on constrained decoding and which handles the inflected forms of lexical ent