ندرس قوة الاهتمام الشامل في بنية المحولات في سياق نقل التعلم للترجمة الآلية، وتوسيع نتائج الدراسات في انتباه متقاطع عند التدريب من الصفر.نقوم بإجراء سلسلة من التجارب من خلال ضبط نموذج الترجمة بشكل جيد على البيانات حيث تغيرت المصدر أو اللغة المستهدفة.تكشف هذه التجارب أن ضبط المعلمات الراقية فقط فعالة تقريبا مثل ضبط جميع المعلمات (I.E.، نموذج الترجمة بأكمله).نحن نقدم رؤى في سبب هذا هو الحال والمراقبة أن الحد من الضبط الجميل بهذه الطريقة يؤدي إلى تضمين متفاوت المحاذاة عبر الإنترنت.تتضمن الآثار المترتبة على هذا البحث عن الباحثين والممارسين تخفيفا من النسيان الكارثي، وإمكانية ترجمة الطلقة الصفرية، والقدرة على تمديد نماذج الترجمة الآلية إلى العديد من أزواج لغة جديدة مع انخفاض مستوى تخزين المعلمة.
We study the power of cross-attention in the Transformer architecture within the context of transfer learning for machine translation, and extend the findings of studies into cross-attention when training from scratch. We conduct a series of experiments through fine-tuning a translation model on data where either the source or target language has changed. These experiments reveal that fine-tuning only the cross-attention parameters is nearly as effective as fine-tuning all parameters (i.e., the entire translation model). We provide insights into why this is the case and observe that limiting fine-tuning in this manner yields cross-lingually aligned embeddings. The implications of this finding for researchers and practitioners include a mitigation of catastrophic forgetting, the potential for zero-shot translation, and the ability to extend machine translation models to several new language pairs with reduced parameter storage overhead.
المراجع المستخدمة
https://aclanthology.org/
منذ أن تم اعتماد النماذج العصبية في توليد لغة البيانات إلى النص، فقد تم اعتمادها دائما على المكونات الخارجية لتحسين دقتها الدلالية، لأن النماذج عادة لا تظهر القدرة على توليد نص يذكر بشكل موثوق كل المعلومات المقدمة فيالمدخل.في هذه الورقة، نقترح طريقة
في هذه الورقة، نصف نظامنا المستخدم في مهمة Semeval 2021 7: hahackathon: الكشف عن الفكاهة والجريمة.استخدمنا نهجا بسيطا للضبط باستخدام نماذج لغة مدربة مسبقا مختلفة (PLMS) لتقييم أدائها للكشف عن الفكاهة والجريمة.بالنسبة لمهام الانحدار، بلغنا متوسط عدد ا
تقدم هذه الورقة نظامنا للحصول على تحديد كمية الكمية، وحدة تحديد الهوية القياس وتصنيف مستوى القيمة الفرعية من المهمة 2021.كان الغرض من مهمة تحديد الكمية تحديد موقع تحديد موقع تمديد النصوص التي تحتوي على عدد أو قياس، يتكون من قيمة، يتبعها عادة وحدة ومع
تصف هذه الورقة تقديمنا إلى مهمة Semeval-2021 1: التنبؤ بدرجة التعقيد لكلمات واحدة.النموذج لدينا يهدف إلى ارتفاع الميزات المورفوسنكتاكيتش والمترددات المستندة إلى التردد التي أثبتت أنها مفيدة لتحديد الكلمات المعقدة (مهمة ذات صلة)، وتجمع بينها مع تنبؤات
تتناول هذه الورقة مناهج مختلفة لمهمة الكشف عن المسيح السامة. كانت المشكلة التي تطرحتها المهمة هي تحديد الكلمات التي تساهم في الغالب في الاعتراف بالوثيقة السامة. على عكس التصنيف الثنائي للنصوص بأكملها، يمكن أن يكون التقييم على مستوى الكلمات استخداما ك