تتمثل النهج التقليدي في تحسين أداء نماذج ترجمة الكلام في النهاية (E2E-St) في الاستفادة من النسخ المصدر عبر التدريب المسبق والتدريب المشترك مع التعرف على الكلام التلقائي (ASR) ومهام الترجمة الآلية العصبية (NMT). ومع ذلك، نظرا لأن طرائق الإدخال مختلفة، فمن الصعب الاستفادة من نص لغة المصدر بنجاح. في هذا العمل، نركز على تقطير المعرفة على مستوى التسلسل (SEQKD) من نماذج NMT الخارجية القائمة على النصوص. للاستفادة من الإمكانات الكاملة لمعلومات اللغة المصدر، نقترحنا على الوراء SEQKD، SEQKD من نموذج NMT للخلف إلى المصدر. تحقيقا لهذه الغاية، نقوم بتدريب نموذج ثنائي اللغة E2E-St للتنبؤ بالصايات بمثابة مهمة مساعدة مع وحدة فك ترميز واحدة. يتم إنشاء الصيغة من الترجمات في Bitex عبر الترجمة مرة أخرى. ونحن نقترح مزيدا من SEQKD ثنائي الاتجاه حيث يتم دمج SEQKD من نماذج NMT إلى الأمام والخلف. تظهر التقييمات التجريبية على كل من النماذج التلقائية وغير اللاحنة التلقائية أن Seqkd في كل اتجاه يحسن باستمرار أداء الترجمة، والفعالية مكملة بغض النظر عن القدرات النموذجية.
A conventional approach to improving the performance of end-to-end speech translation (E2E-ST) models is to leverage the source transcription via pre-training and joint training with automatic speech recognition (ASR) and neural machine translation (NMT) tasks. However, since the input modalities are different, it is difficult to leverage source language text successfully. In this work, we focus on sequence-level knowledge distillation (SeqKD) from external text-based NMT models. To leverage the full potential of the source language information, we propose backward SeqKD, SeqKD from a target-to-source backward NMT model. To this end, we train a bilingual E2E-ST model to predict paraphrased transcriptions as an auxiliary task with a single decoder. The paraphrases are generated from the translations in bitext via back-translation. We further propose bidirectional SeqKD in which SeqKD from both forward and backward NMT models is combined. Experimental evaluations on both autoregressive and non-autoregressive models show that SeqKD in each direction consistently improves the translation performance, and the effectiveness is complementary regardless of the model capacity.
المراجع المستخدمة
https://aclanthology.org/
توضح هذه الورقة تقديم نظام الترجمة من Niutrans End-tou-end الكلام للمهمة غير المتصلة IWSLT 2021، والتي تترجم من الصوت الإنجليزي إلى النص الألماني مباشرة دون نسخ متوسط.نحن نستخدم الهندسة المعمارية النموذجية القائمة على المحولات وتعزيزها عن طريق مطابقة
تجادل الدراسات الحديثة بأن تقطير المعرفة يعد إلى ترجمة الكلام (ST) باستخدام النماذج الطرفية إلى النهاية.في هذا العمل، يمكننا التحقيق في تأثير تقطير المعرفة مع SC CASCADE باستخدام نماذج الترجمة التلقائية للكلام (ASR) ونماذج الترجمة الآلية (MT).نحن نوف
أحدثت النماذج المدربة (E2E) مؤخرا (E2E) لصالح الإجابة على الرسوم البيانية المعرفة (KGQA) نتائج واعدة تستخدم فقط مجموعة بيانات خاضعة للإشراف.ومع ذلك، يتم تدريب هذه النماذج وتقييمها في وضع يتم فيه توفير كيانات سؤال مشروح يدوية للنموذج، مما يترك المهمة
تفترض أن معظم الدراسات السابقة حول حالة المعلومات (IS) تصنيف وتجسير التعرف anaphora أن ذكر الذهب أو معلومات شجرة النحوية يتم إعطاء (Hou et al.، 2013؛ Roesiger et al.، 2018؛ هو، 2020؛ يو ويوسيو، 2020) وبعد في هذه الورقة، نقترح نهج عصبي نهاية إلى نهج ل
يدقق هذا البرنامج التعليمي أحدث التقدم التقني في التحليل النحوي ودور بناء الجملة في مهام معالجة اللغة الطبيعية المناسبة (NLP)، حيث يتمثل الترجمة الدلالية في الدورات الدلالية (SRL) والترجمة الآلية (MT) المهام التي لديهاكان دائما مفيدا من أدلة النحوية