ترغب بنشر مسار تعليمي؟ اضغط هنا

تعدد اللغات الكلام ترجمة كيت @ IWSLT2021

Multilingual Speech Translation KIT @ IWSLT2021

431   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

تحتوي هذه الورقة على وصف لتقديم معهد Karlsruhe للتكنولوجيا (KIT) لمهمة ترجمة TEDX متعددة اللغات في حملة تقييم IWSLT 2021.نهجنا الرئيسي هو تطوير كل من النظم المتتالية ونظم نهاية إلى نهاية وتجمع بينها في نهاية المطاف لتحقيق أفضل النتائج الممكنة لهذا الإعداد المنخفض للغاية الموارد.يؤكد التقرير أيضا تحسين بعض التحسن المعماري المتسق إضافته إلى بنية المحولات، لجميع المهام: ترجمة الترجمة والنسخ والنطق.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

تصف هذه الورقة مشاركة جامعة ماستريخت في مسار الترجمة متعددة اللغات في IWSLT 2021.المهمة في هذه المسار هي بناء أنظمة ترجمة خطاب متعددة اللغات في اتجاهات تحت إشراف ومطلة الصفر.نظامنا الأساسي هو نموذج نهاية إلى نهاية يؤدي إلى نسخ الكلام والترجمة.نلاحظ أ ن التدريب المشترك للمهامتين مكملتين خاصة عندما تكون بيانات ترجمة الكلام نادرة.على المصدر والجانب المستهدف، نستخدم تكبير البيانات والملصقات الزائفة على التوالي لتحسين أداء أنظمتنا.نقدم أيضا تقنية كفرية تعمل باستمرار على تحسين جودة النسخ والترجمات.تظهر التجارب أن النظام المنتهي تنافسية مع نظيره المتتالي وخاصة في ظروف الطلقة الصفرية.
في هذه الورقة، نصف نظام ترجمة الكلام متعددة اللغات نهاية إلى نهاية المقدمة إلى حملة تقييم IWSLT 2021 في مهمة مشتركة من خطابات الكلام متعددة اللغات. بنيت نظامنا من خلال الاستفادة من التعلم النقل عبر الطرائق والمهام واللغات. أولا، نحن نستفيد الوحدات مت عددة اللغات للأغراض العامة مسببة اللغات مع كميات كبيرة من البيانات غير المسماة والمصدرة. ونحن كذلك تمكين نقل المعرفة من مهمة النص إلى مهمة خطاب من خلال التدريب بمهامتين بالاشتراك. أخيرا، يتم تصوير نموذجنا متعدد اللغات في البيانات الخاصة ببيانات المهام الخاصة بترجمة الكلام لتحقيق أفضل نتائج الترجمة. تظهر النتائج التجريبية أن نظامنا يتفوق على الأنظمة المبلغ عنها، بما في ذلك النهج القائمة على المناسبة والمتوسطة، بتهامش كبير. في بعض اتجاهات الترجمة، تعد نتائج ترجمة الكلام التي تم تقييمها على مجموعة اختبار TEDX متعددة اللغات متعددة اللغات مقارنة مع تلك الموجودة من نظام ترجمة نصية قوية للنص، والذي يستخدم النصوص أوراكل الكلام كإدخال.
في هذه الورقة، وصفنا تقديم جامعة تشجيانغ إلى مهمة ترجمة الكلام متعددة اللغات IWSLT2021.تركز هذه المهمة على بحث ترجمة الكلام (ST) عبر العديد من لغات المصدر غير الإنجليزية.يمكن للمشاركين أن يقرروا ما إذا كانوا سيعملون على أنظمة مقيدة أو أنظمة غير مقيدة يمكنها استخدام البيانات الخارجية.نقوم بإنشاء أنظمة مقيدة للترجمة المتتالية والإنغانية في النهاية، باستخدام البيانات المقدمة فقط.في النهج المتتالي، نجمع بين التعرف على الكلام التلقائي في المطابقة (ASR) مع الترجمة الآلية العصبية القائمة على المحولات (NMT).تستخدم أنظمة الترجمة المباشرة المناسبة للكلام المباشرة في تشفير الأساس ومكتشف متعددة المهام.تم فركة الأنظمة المقدمة من قبل نماذج متتالية مختلفة.
اكتسبت النماذج المستندة إلى المحولات شعبية متزايدة تحقق الأداء الحديث في العديد من مجالات البحث بما في ذلك ترجمة الكلام. ومع ذلك، فإن التعقيد التربيعي للمحول فيما يتعلق بديل تسلسل الإدخال يمنع اعتماده كما هو الحال مع إشارات صوتية، والتي تمثل عادة بال تسلسلات الطويلة. اللجوء الحلول الحالية إلى ضغط أساسي أساسي على أساس أخذ العينات الثابتة لميزات الصوت الخام. لذلك، فإن المعلومات اللغوية المفيدة المحتملة غير قابلة للوصول إلى طبقات أعلى مستوى في الهندسة المعمارية. لحل هذه المشكلة، نقترح الكلمة، وهي عبارة عن بنية، بفضل انخفاض استخدام الذاكرة في طبقات الاهتمام، وتجنب ضغط المخلفات الأولية والمعلومات المجامعة فقط على مستوى أعلى وفقا لمعايير لغوية أكثر استنارة. تظهر التجارب على ثلاث أزواج اللغات (en → de / es / nl) فعالية حلنا، مع مكاسب تصل إلى 0.8 بلو على Corpus القياسية يجب أن تكون ميديا ​​وعلى ما يصل إلى 4.0 بلو في سيناريو منخفض الموارد.
تصف الورقة أنظمة ترجمة الكلام (ST) ولكن الإنجليزية إلى الألمانية. وهي تستند إلى نماذج الترجمة الآلية المعرونة التي تم تدريبها بشكل مشترك. يتم تقييم أدائها على مجموعة اختبار MUSTC المشتركة. في هذا العمل، ندرس كفاءتها من وجهة نظر وجود كمية كبيرة من بيا نات التدريب ASR المنفصلة وبيانات التدريب MT، وكمية أصغر من بيانات التدريب على الكلام. يتم استخدام كميات كبيرة من البيانات التدريبية ASR و MT لتدريب نماذج ASR و MT مسبقا. يتم استخدام بيانات الترجمة من الكلام لتحسين نماذج ASR-MT بشكل مشترك عن طريق تحديد مسار قابل للتطبيق من الكلام من الكلام إلى الترجمات. لهذا الغرض، نستخدم التمثيلات المستمرة الداخلية من وحدة فك ترميز ASR كدخل إلى وحدة MT. نظرا لأن ترجمة الكلام يمكن تحسينها من خلال تدريب وحدة فك الترميز العادية بالاشتراك مع وحدة MT-Module باستخدام كمية كبيرة من بيانات التدريب فقط MT فقط. نعرض أيضا تحسينات كبيرة من خلال تدريب وحدة ASR القادرة على توليد نص مخلوق، بدلا من مغادرة مهمة علامات الترقيم إلى وحدة MT.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا