السيطرة الجميلة المحبوسة على مخرجات الترجمة الآلية (MT) على طول سمات متعددة أمر بالغ الأهمية للعديد من تطبيقات MT الحديثة ومتطلبات الحصول على ثقة المستخدمين. تتمثل النهج القياسي في ممارسة التحكم في MT بإعداد المدخلات بعلامة خاصة للإشارة إلى سمة الإخراج المرغوبة. على الرغم من بساطته، فإن علامات السمة لديها العديد من العيوب: يجب أن تكون القيم المستمرة في الفئات المنفصلة، وهي غير طبيعية لبعض التطبيقات؛ التدخل بين العلامات المتعددة مفهومة سيئة. نحن نبحث عن هذه المشاكل عن طريق إدخال تدخلات ذات قيمة ناقلات تسمح بالتحكم الدقيق في سمات متعددة في وقت واحد عبر مزيج خطي مرجح من المتجهات المقابلة. بالنسبة لبعض السمات، تسمح نهجنا حتى بضبط نموذج تدرب عليه دون توضيحية لدعم هذه التدخلات. في تجارب ذات ثلاث سمات (الطول والتدانة والروماتونية) واثنين من أزواج اللغة (الإنجليزية إلى الألمانية واليابانية) تحقق نماذجنا تحكما أفضل على مجموعة واسعة من المهام مقارنة بوضع العلامات، لا تتحلل جودة الترجمة عند عدم طلب أي سيطرة. أخيرا، نوضح كيفية تمكين التحكم في نموذج مدرب بالفعل بعد مرحلة صعبة رخيصة نسبيا.
Fine-grained control of machine translation (MT) outputs along multiple attributes is critical for many modern MT applications and is a requirement for gaining users' trust. A standard approach for exerting control in MT is to prepend the input with a special tag to signal the desired output attribute. Despite its simplicity, attribute tagging has several drawbacks: continuous values must be binned into discrete categories, which is unnatural for certain applications; interference between multiple tags is poorly understood. We address these problems by introducing vector-valued interventions which allow for fine-grained control over multiple attributes simultaneously via a weighted linear combination of the corresponding vectors. For some attributes, our approach even allows for fine-tuning a model trained without annotations to support such interventions. In experiments with three attributes (length, politeness and monotonicity) and two language pairs (English to German and Japanese) our models achieve better control over a wider range of tasks compared to tagging, and translation quality does not degrade when no control is requested. Finally, we demonstrate how to enable control in an already trained model after a relatively cheap fine-tuning stage.
References used
https://aclanthology.org/
Quality Estimation (QE) for Machine Translation has been shown to reach relatively high accuracy in predicting sentence-level scores, relying on pretrained contextual embeddings and human-produced quality scores. However, the lack of explanations alo
The paper presents experiments in neural machine translation with lexical constraints into a morphologically rich language. In particular and we introduce a method and based on constrained decoding and which handles the inflected forms of lexical ent
Neural machine translation based on bilingual text with limited training data suffers from lexical diversity, which lowers the rare word translation accuracy and reduces the generalizability of the translation system. In this work, we utilise the mul
Low-resource Multilingual Neural Machine Translation (MNMT) is typically tasked with improving the translation performance on one or more language pairs with the aid of high-resource language pairs. In this paper and we propose two simple search base
Machine translation usually relies on parallel corpora to provide parallel signals for training. The advent of unsupervised machine translation has brought machine translation away from this reliance, though performance still lags behind traditional