ترغب بنشر مسار تعليمي؟ اضغط هنا

في هذه الورقة، نصف تقديم فريق مشترك لبحوث Samsung Philippines-Konvergen AI لمهمة الترجمة متعددة اللغات متعددة اللغات WMT'21 - المسار الصغير 2. نقدم نموذج محول SEQ2SEQ قياسي إلى المهمة المشتركة دون أي حيل تدريب أو عمارة، تعتمد بشكل رئيسي على قوة تقنيا ت ما قبل البيانات الخاصة بنا لتعزيز الأداء.سجل طراز التقديم النهائي لدينا 22.92 متوسط بلو على مجموعة Flores-101 Devtest، وسجل 22.97 متوسط بلو على مجموعة الاختبارات الخفية للمسابقة، المرتبة السادسة بشكل عام.على الرغم من استخدام محول قياسي فقط، في المرتبة النموذجية المرتبة الأولى في الإندونيسية إلى الجاوية، مما يدل على المسائل المعالجة المسبقة للبيانات على قدم المساواة، إن لم تكن أكثر، من تقنيات النموذج المتطورة وتقنيات التدريب.
توضح هذه الورقة نظام الترجمة متعددة الاستخدامات على نطاق واسع ل WMT 2021. نشارك في المسار الصغير 2 في خمسة لغات جنوب شرق آسيا، والثلاثين الاتجاهات: الجاوية، الإندونيسية، الملايو، التاغالوغية، التاميل، الإنجليزية.نحن نستخدم أساسا إلى الأمام / الترجمة إلى الوراء، واختيار بيانات داخل المجال، وقطاع المعرفة، والضبط الجماعي التدريجي من الطراز المدرب مسبقا فلوريس 101.نجد أن الترجمة إلى الأمام / الخلفي يحسن بشكل كبير من نتائج الترجمة، واختيار البيانات والضبط الجمنيات التدريجية فعالة بشكل خاص أثناء مجال التكيف، في حين أن تقطير المعرفة يجلب تحسين أداء طفيف.أيضا، يستخدم متوسط المتوسط لتحسين أداء الترجمة بناء على هذه الأنظمة.يحقق نظامنا النهائي درجة بلو متوسط قدره 28.89 عبر ثلاثين اتجاهين في مجموعة الاختبار.
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا