ترغب بنشر مسار تعليمي؟ اضغط هنا

تقوم الترجمة العصبية متعددة اللغات (MNMT) بتدريب نموذج NMT واحد يدعم الترجمة بين لغات متعددة، بدلا من تدريب نماذج منفصلة لغات مختلفة. تعلم نموذج واحد يمكن أن يعزز الترجمة المنخفضة الموارد من خلال الاستفادة من البيانات من لغات متعددة. ومع ذلك، فإن أدا ء نموذج MNMT يعتمد اعتمادا كبيرا على نوع اللغات المستخدمة في التدريب، حيث أن نقل المعرفة من مجموعة متنوعة من اللغات تتحلل أداء الترجمة بسبب النقل السلبي. في هذه الورقة، نقترح مقاربة تقطير المعرفة التسلسل الهرمية (HKD) ل MNMT والتي تتمتع بالجماعات اللغوية التي تم إنشاؤها وفقا للميزات النموذجية والهلوجين من اللغات للتغلب على مسألة النقل السلبي. ينشئ HKD مجموعة من نماذج مساعد المعلم متعددة اللغات عبر آلية تقطير المعرفة الانتقائية تعتمد على مجموعات اللغات، ثم قم بالتقطير النموذج النهائي متعدد اللغات من المساعدين بطريقة تكيف. النتائج التجريبية المشتقة من مجموعة بيانات TED مع 53 لغة توضح فعالية نهجنا في تجنب تأثير النقل السلبي في MNMT، مما يؤدي إلى أداء ترجمة محسنة (حوالي 1 درجة بلو في المتوسط) مقارنة مع خطوط الأساس القوية.
تتمثل المحور الخاص بتحليل المعنويات المستندة إلى جانب الجانب (ABAMA) على إزاحة شروط الجانب مع شروط الرأي المقابلة، والتي قد تستمد تنبؤات المعنويات أسهل. في هذه الورقة، نحقق في مهمة ABSA الموحدة من منظور فهم القراءة بالآلة (MRC) من خلال مراعاة أن الجا نب وشروط الرأي يمكن أن يكون بمثابة الاستعلام والإجابة في MRC Interchangeably. نقترح نماذج جديدة تسمى دور يقرأ آلة القراءة (RF-MRC) لحلها. في قلبها، تعتبر النتائج المتوقعة إما استخراج الأوجه (أكلت) أو مصطلحات الرأي (OTE) الاستعلامات، على التوالي، وتعتبر الرأي المتطابق أو شروط الجانب إجابات. يمكن انقلاب الاستفسارات والإجابات للكشف المتعدد القفز. أخيرا، يتم توقع كل زوج من جانب الرأي المتطابق مع مصنف المعنويات. RF-MRC يمكن أن يحل مهمة ABSA دون أي شرح بيانات إضافي أو تحويل. تجارب على ثلاثة معايير مستعملة على نطاق واسع ومجموعة بيانات صعبة توضح تفوق الإطار المقترح.
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا