حققت نماذج اللغة المدربة مؤخرا (LMS) أداء قويا عند ضبطها على المعايير الصعبة مثل SuperGlue.ومع ذلك، يمكن أن يعاني الأداء عندما يكون هناك عدد قليل جدا من الأمثلة المسمىة للضبط بشكل جيد.يعد تدريب نمط استغلال النمط (PET) نهجا مؤخرا أن أنماط أنماط لتعلم القليل من الطلقات.ومع ذلك، يستخدم الحيوانات الأليفة البيانات الخاصة بمهام المهام غير المسبقة.في هذه الورقة، نركز على عدد قليل من التعلم بالرصاص دون أي بيانات غير مبررة وإدخال Adapet، والذي يعدل هدف الحيوانات الأليفة لتوفير إشراف كثيف أثناء الضبط.نتيجة لذلك، تتفوق Adapet على الحيوانات الأليفة على SuperGlue دون أي بيانات غير محددة من المهام.
Recently, pre-trained language models (LMs) have achieved strong performance when fine-tuned on difficult benchmarks like SuperGLUE. However, performance can suffer when there are very few labeled examples available for fine-tuning. Pattern Exploiting Training (PET) is a recent approach that leverages patterns for few-shot learning. However, PET uses task-specific unlabeled data. In this paper, we focus on few-shot learning without any unlabeled data and introduce ADAPET, which modifies PET's objective to provide denser supervision during fine-tuning. As a result, ADAPET outperforms PET on SuperGLUE without any task-specific unlabeled data.
المراجع المستخدمة
https://aclanthology.org/
تدريب الخصم، طريقة لتعلم الشبكات العصبية العميقة القوية، تضم أمثلة خصومة أثناء التدريب. ومع ذلك، فإن الأساليب الحديثة لتوليد أمثلة allp adversarial تنطوي على البحث عن الفروضي وترميز الجملة باهظة الثمن لتقييد الحالات التي تم إنشاؤها. نتيجة لذلك، لا يز
تشفير لغة متعددة اللغات المدربة مسبقا، مثل Bert متعدد اللغات و XLM-R، إظهار إمكانات كبيرة للتحويل الصفر - عبر اللغات. ومع ذلك، فإن هذه اللوائح متعددة اللغات لا تحيي بالتحديد الكلمات والعبارات عبر اللغات. على وجه الخصوص، يتطلب محاذاة التعلم في مساحة ا
تهدف هذه الدراسة إلى تقييم البرامج التدريببية التي خضع لها العاملين في شركة البيادر العالمية في مختلف فروعها. كما تحاول فهم العلاقة بين البرامج التدريبية التي خضع لها العاملين و انعكاسها على أدائهم في العمل.
أصبحت الترجمة المرجودة (BT) واحدة من مكونات الأمر الواقع في الترجمة الآلية العصبية غير المنشأة (UNMT)، ويجعل صراحة لديها القدرة على الترجمة. ومع ذلك، يتم التعامل مع جميع النصوص الثنائية الزائفة التي تم إنشاؤها بواسطة BT بنفس القدر كبيانات نظيفة أثناء
محتوى الويب الحديث - المقالات الإخبارية، منشورات المدونة، الموارد التعليمية، كتيبات التسويق - هي في الغالب متعددة الوسائط.سمة ملحوظة هي إدراج وسائل الإعلام مثل الصور الموضوعة في مواقع ذات مغزى ضمن سرد نصي.في أغلب الأحيان، مصحوبة مثل هذه الصور بتعليقا