ترغب بنشر مسار تعليمي؟ اضغط هنا

جامعة أريزونا في مهمة Semeval-2021 10: تطبيق التدريب الذاتي والتعلم النشط وتعزيز البيانات على التكيف المجال المجاني المصدر

The University of Arizona at SemEval-2021 Task 10: Applying Self-training, Active Learning and Data Augmentation to Source-free Domain Adaptation

316   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

تصف هذه الورقة أنظمتنا لإلغاء الكشف عن النفي والتعرف على تعبير الوقت في مهمة Semeval 2021، وتكييف المجال المجاني للمصدر للمعالجة الدلالية.نظرا لأن التدريب الذاتي والتعلم النشط وتقنيات تكبير البيانات يمكن أن يحسن قدرة تعميم النموذج على بيانات المجال المستهدف غير المستهدف دون الوصول إلى بيانات مجال المصدر.نحن نقوم أيضا بإجراء دراسات مفصلة عن التدقيق وتحليلات الأخطاء لأنظمة التعرف على تعبير وقتنا لتحديد مصدر تحسين الأداء وإعطاء ردود فعل بناءة على إرشادات التطبيع الزمني للتطبيع.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

تقدم هذه الورقة المهمة المشتركة تتكيف المجال المجانية للمصدر التي عقدت داخل Semeval-2021.كان الهدف من المهمة هو استكشاف تكيف نماذج تعليم الآلات في مواجهة قيود مشاركة البيانات.على وجه التحديد، نعتبر السيناريو حيث توجد التعليقات التوضيحية للنطاق ولكن ل ا يمكن تقاسمها.بدلا من ذلك، يتم تزويد المشاركين مع النماذج المدربة على هذه البيانات (المصدر).يتلقى المشاركون أيضا بعض البيانات المسمى من مجال جديد (تطوير) لاستكشاف خوارزميات تكيف المجال.ثم يتم اختبار المشاركين على البيانات التي تمثل مجال جديد (الهدف).استكشفنا هذا السيناريو مع اثنين من المهام الدلالية المختلفة: الكشف عن النفي (مهمة تصنيف النص) والتعرف على تعبير الوقت (مهمة وضع علامة تسلسل).
يعد التكيف المجال المجاني للمصدر خطا ناشئا في أبحاث التعلم العميق لأنه يرتبط ارتباطا وثيقا ببيئة العالم الحقيقي.ندرس مخصصات المجال في مشكلة تسلسل التسلسل حيث يتم تقديم الطراز الذي تم تدريبه على بيانات مجال المصدر.نقترح طريقتين: محول الذات وتدريب المص نف الانتقائي.المحول الذاتي هو طريقة تدريب تستخدم تسميات زائفة على مستوى الجملة التي تمت تصفيتها بواسطة عتبة الانتروب الذاتي لتوفير الإشراف على النموذج بأكمله.يستخدم التدريب الانتقائي مؤشر التسميات الزائفة على مستوى الرمز المميز ويشرف على طبقة التصنيف فقط من النموذج.يتم تقييم الأساليب المقترحة على البيانات التي توفرها مهمة Semeval-2021 10 وتحقيق المحول الذاتي أداء المرتبة الثانية.
يفترض تكيف المجال أن العينات من المجالات المصدر والمستهدفة يمكن الوصول إليها بحرية خلال مرحلة التدريب.ومع ذلك، نادرا ما يكون مثل هذا الافتراض معقول في العالم الحقيقي وقد يؤدي إلى مشكلات خصوصية البيانات، خاصة عندما تكون تسمية مجال المصدر يمكن أن تكون سمة حساسة كمعرف.مهمة Semeval-2021 تركز 10 على هذه القضايا.نشارك في المهمة واقتراح أطر جديدة بناء على طريقة التدريب الذاتي.في أنظمتنا، تم تصميم أطرتين مختلفتين لحل تصنيف النص ووضع التسلسل.يتم اختبار هذه الأساليب لتكون فعالة والتي تحتل المرتبة الثالثة من بين جميع النظام في التراكب الفرعي، وتحتل المرتبة الأولى بين جميع النظام في SubTask B.
قيود مشاركة البيانات شائعة في مجموعات بيانات NLP.الغرض من هذه المهمة هو تطوير نموذج مدرب في مجال المصدر لجعل تنبؤات للمجال المستهدف مع بيانات المجال ذات الصلة.لمعالجة هذه المسألة، قدم المنظمون النماذج التي يتم ضبطها بشكل جيد على عدد كبير من بيانات مج ال المصدر على النماذج المدربة مسبقا وبيانات DEV للمشاركين.ولكن لم يتم توزيع بيانات مجال المصدر.تصف هذه الورقة النموذج المقدم إلى مهمة NER (التعرف على كيان الاسم) وطرق تطوير النموذج.كقليل من البيانات المقدمة، تكون النماذج المدربة مسبقا مناسبة لحل المهام عبر المجال.يمكن أن تكون النماذج التي تم ضبطها من قبل عدد كبير من مجال آخر فعال في مجال جديد لأن المهمة لم تكن هناك تغيير.
نظرا للمخاوف المتزايدة لخصوصية البيانات، يجذب تكيف المجال بدون إلغاء تأسيس المصدر المزيد من الاهتمام بالأبحاث، حيث يفترض أن نموذج مصدر مدرب فقط متاحا، في حين تبقى بيانات المصدر المسمى خاصة.للحصول على نتائج التكيف الواعدة، نحتاج إلى إيجاد طرق فعالة لن قل المعرفة المستفادة في مجال المصادر والاستفادة من المعلومات الخاصة بالمجال المفيدة من المجال المستهدف في نفس الوقت.تصف هذه الورقة مساهمتنا الفائزة في مهمة Semeval 2021 10: تكيف مجال المصدر الخالي من المصدر للمعالجة الدلالية.تتمثل فكرتنا الرئيسية في الاستفادة من النموذج الذي تم تدريبه على بيانات مجال المصدر لتوليد ملصقات زائفة لعينات المجال المستهدف.علاوة على ذلك، نقترح نفي تدرك ما قبل التدريب (NAP) لدمج المعرفة النفي في نموذج.تفوز طريقتنا في المكان الأول مع درجة F1 من 0.822 على مجموعة اختبار الكشف عن الكشف الرسمي الرسمي.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا