شاركت في WMT مشاركتها الأخبار مهمة الترجمة والتركيز على زوج واحد في لغة الموارد عالية: الإنجليزية والصينية (اتجاهين، صينيين إلى اللغة الإنجليزية والإنجليزية إلى الصينية).تركز الأنظمة المقدمة (Zenghuimt) على تنظيف البيانات، واختيار البيانات، والترجمة مرة أخرى ونموذج النموذج.تتضمن التقنيات التي استخدمتها لتصفية البيانات والاختيار التصفية حسب القواعد ونموذج اللغة ومحاذاة Word.لقد استخدمت نموذجا أساسا للترجمة المدربين على Corpus الأولي للحصول على الإصدارات المستهدفة من مجموعات اختبار WMT21، ثم استخدمت نماذج اللغة لمعرفة البيانات أحادية الأبدية التي تشبه الإصدار المستهدف من مجموعة الاختبار، ثم تم استخدام هذه البيانات الأحاديةللقيام الترجمة مرة أخرى.في مجموعة الاختبار، تحقيق أفضل أنظمة بلدي المقدمة 35.9 و 32.2 بلو للإنجليزية إلى اتجاهات اللغة الإنجليزية والصينية إلى الإنجليزية على التوالي، وهي مرتفعة للغاية بالنسبة لطراز صغير.
I participated in the WMT shared news translation task and focus on one high resource language pair: English and Chinese (two directions, Chinese to English and English to Chinese). The submitted systems (ZengHuiMT) focus on data cleaning, data selection, back translation and model ensemble. The techniques I used for data filtering and selection include filtering by rules, language model and word alignment. I used a base translation model trained on initial corpus to obtain the target versions of the WMT21 test sets, then I used language models to find out the monolingual data that is most similar to the target version of test set, such monolingual data was then used to do back translation. On the test set, my best submitted systems achieve 35.9 and 32.2 BLEU for English to Chinese and Chinese to English directions respectively, which are quite high for a small model.
References used
https://aclanthology.org/
The use of pretrained language models, fine-tuned to perform a specific downstream task, has become widespread in NLP. Using a generic language model in specialized domains may, however, be sub-optimal due to differences in language use and vocabular
Ever since neural models were adopted in data-to-text language generation, they have invariably been reliant on extrinsic components to improve their semantic accuracy, because the models normally do not exhibit the ability to generate text that reli
In this paper, we describe our system entry for Shared Task 8 at SMM4H-2021, which is on automatic classification of self-reported breast cancer posts on Twitter. In our system, we use a transformer-based language model fine-tuning approach to automa
Style transfer aims to rewrite a source text in a different target style while preserving its content. We propose a novel approach to this task that leverages generic resources, and without using any task-specific parallel (source--target) data outpe
This paper discusses different approaches to the Toxic Spans Detection task. The problem posed by the task was to determine which words contribute mostly to recognising a document as toxic. As opposed to binary classification of entire texts, word-le