الترجمة الآلية العصبية (NMT) حساسة لتحويل المجال. في هذه الورقة، نتعامل مع هذه المشكلة في إعداد تعليمي نشط حيث يمكننا أن نقضي ميزانية معينة في ترجمة البيانات داخل المجال، وتصفح تدريجيا نموذج NMT خارج المجال المدرب مسبقا على البيانات المترجمة حديثا. عادة ما تختار طرق التعلم النشطة الحالية ل NMT الجمل بناء على درجات عدم اليقين، ولكن هذه الأساليب تتطلب ترجمة مكلفة للجمل الكاملة حتى عندما تكون عبارات واحدة أو اثنين فقط في الجملة مفيدة. لمعالجة هذا القيد، نعيد فحص العمل السابق من حقبة الترجمة الآلية القائمة على العبارة (PBMT) التي حددت جمل كاملة، ولكن العبارات الفردية إلى حد ما. ومع ذلك، في حين أن دمج هذه العبارات في أنظمة PBMT كانت بسيطة نسبيا، إلا أنها أقل تافهة لأنظمة NMT، والتي يجب تدريبها على تسلسل كامل لالتقاط خصائص هيكلية أكبر للجمل الفريدة للمجال الجديد. للتغلب على هذه العقبات، نقترح تحديد كلا الجمل الكاملة والعبارات الفردية من البيانات غير المسبقة في المجال الجديد للتوجيه إلى المترجمين البشريين. في مهمة ترجمة باللغة الألمانية-الإنجليزية، تحقق نهج التعلم النشط لدينا تحسينات متسقة حول أساليب اختيار الجملة القائمة على عدم اليقين، وتحسين ما يصل إلى 1.2 نتيجة بلو على خطوط خطوط التعلم النشطة قوية.
Neural machine translation (NMT) is sensitive to domain shift. In this paper, we address this problem in an active learning setting where we can spend a given budget on translating in-domain data, and gradually fine-tune a pre-trained out-of-domain NMT model on the newly translated data. Existing active learning methods for NMT usually select sentences based on uncertainty scores, but these methods require costly translation of full sentences even when only one or two key phrases within the sentence are informative. To address this limitation, we re-examine previous work from the phrase-based machine translation (PBMT) era that selected not full sentences, but rather individual phrases. However, while incorporating these phrases into PBMT systems was relatively simple, it is less trivial for NMT systems, which need to be trained on full sequences to capture larger structural properties of sentences unique to the new domain. To overcome these hurdles, we propose to select both full sentences and individual phrases from unlabelled data in the new domain for routing to human translators. In a German-English translation task, our active learning approach achieves consistent improvements over uncertainty-based sentence selection methods, improving up to 1.2 BLEU score over strong active learning baselines.
References used
https://aclanthology.org/
Interactive-predictive translation is a collaborative iterative process and where human translators produce translations with the help of machine translation (MT) systems interactively. Various sampling techniques in active learning (AL) exist to upd
Neural machine translation (NMT) models are data-driven and require large-scale training corpus. In practical applications, NMT models are usually trained on a general domain corpus and then fine-tuned by continuing training on the in-domain corpus.
In supervised learning, a well-trained model should be able to recover ground truth accurately, i.e. the predicted labels are expected to resemble the ground truth labels as much as possible. Inspired by this, we formulate a difficulty criterion base
Recent research questions the importance of the dot-product self-attention in Transformer models and shows that most attention heads learn simple positional patterns. In this paper, we push further in this research line and propose a novel substitute
Existing curriculum learning approaches to Neural Machine Translation (NMT) require sampling sufficient amounts of easy'' samples from training data at the early training stage. This is not always achievable for low-resource languages where the amoun