ترغب بنشر مسار تعليمي؟ اضغط هنا

نحن تصف تقديم UPPSALA NLP إلى مهمة SEMEVAL-2021 2 على الغمزة متعددة اللغات والتبلغة في السياق.نستكشف عن فائدة ثلاثة نماذج لغوية متعددة اللغات المدربة مسبقا، XLM-Roberta (XLMR)، بيرت متعددة اللغات (MBERT) بيرت مقطورة متعددة اللغات (Mdistilbert).قارنا هذه النماذج الثلاثة في اثنين من الإعدادات، والضبط بشكل جيد وكمسافات ميزة.في الحالة الثانية، نقوم أيضا بتجربة استخدام المعلومات المستندة إلى التبعية.نجد أن الضبط الدقيق أفضل من استخراج الميزات.يعمل XLMR بشكل أفضل من mbert في الإعداد المتبادل على حد سواء مع ضبط الدقيقة والميزة، في حين أن هاتين النموذجين تعطي أداء مماثل في الإعداد متعدد اللغات.يعمل Mdistilbert بشكل سيئ مع ضبط جيد ولكن يعطي نتائج مماثلة للنماذج الأخرى عند استخدامها كمستغل ميزة.قدمنا أفضل أنظمةنا، يتم ضبطها بشكل جيد مع XLMR و Mbert.
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا