ترغب بنشر مسار تعليمي؟ اضغط هنا

Duluthnlp في Semeval-2021 المهمة 7: Tuning Roberta نموذج للكشف عن فكاهة وتصنيف الجريمة

DuluthNLP at SemEval-2021 Task 7: Fine-Tuning RoBERTa Model for Humor Detection and Offense Rating

177   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

تقدم هذه الورقة تقديم Duluthnlp إلى المهمة 7 من مسابقة Semeval 2021 بشأن الكشف عن الفكاهة والجريمة تصنيفها.في ذلك، نوضح النهج المستخدم لتدريب النموذج مع عملية ضبط النموذج الخاص بنا في الحصول على النتائج.ونحن نركز على الكشف عن الفكاهة والتصنيف والتصنيف الفاسد، وهو ما يمثل ثلاثة من الأساس الأربع الفرعية التي قدمت.نظهر أن تحسين المعلمات فرطا لمعدل التعلم، يمكن أن يزيد حجم الدفعة وعدد EFOCHs من الدقة ونتيجة F1 للكشف عن الفكاهة

المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

التعرف الفكاهي هو مهمة صعبة في معالجة اللغة الطبيعية.تقدم هذه الوثيقة مناهجاتي للكشف عن الفكاهة والجريمة من النص المحدد.تتضمن هذه المهمة مهام 2: المهمة 1 التي تحتوي على 3 مجموعات فرعية (1A، 1B، و 1C)، والمهمة 2. يمكن اعتبار 1A SubTask 1A و 1C مشاكل ا لتصنيف واتخاذ ألبرت كنموذج أساسي.SubTask 1B و 2 يمكن أن ينظر إليها على أنها قضايا الانحدار وتأخذ روبرتا كنموذج أساسي.
إن فهم الفكاهة هو عنصر أساسي لأنظمة NLP التي تواجه الإنسان.في هذه الورقة، نحقق في العديد من الطرق للكشف عن الفكاهة في تصريحات قصيرة كجزء من المهمة المشتركة SEMEVAL-2021 7. للمهمة 1A، نطبق مجموعة من نماذج اللغة المدربة مسبقا مسبقا؛بالنسبة للمهام 1B، 1 C، و 2A، نحقق في العديد من نماذج التعلم الآلية القائمة على الأشجار والخطية.ينص نظامنا النهائي على درجة F1 من 0.9571 (المرتبة 24/58) في المهمة 1A، ورمز من 0.5580 (مرتبة 18/50) في المهمة 1B، درجة F1 من 0.5024 (المرتبة 26/36) في مهمة 1C،ورمز من 0.7229 (المرتبة 45/88) في مهمة 2A.
Semeval 2021 المهمة 7، Hahackathon، كانت أول مهمة مشتركة للجمع بين المجالات المنفصلة سابقا من الكشف عن الفكاهة والكشف عن الجريمة. جمعنا 10000 نص من تويتر ومجموعات بيانات النكات القصيرة في Kaggle، وكان كل منها مشروح من الفكاهة والجريمة بمقدار 20 حديثا في سن 18-70. كانتنا فرعيتنا الفرعية للكشف عن الفكاهة الثنائية، والتنبؤ بتصنيفات الفكاهة والجريمة، ومهمة جدل جديدة: للتنبؤ إذا كان التباين في تصنيفات الفكاهة أعلى من عتبة محددة. جذبت المهن الفرعية 36-58 طلبا، مع اختيار معظم المشاركين استخدام نماذج اللغة المدربة مسبقا. كما نفذت العديد من الفرق الأعلى الأداء تقنيات تحسين إضافية، بما في ذلك التدريب على المهام على التكيف والتدريب الخصم. تشير النتائج إلى أن النظم المشاركة مناسبة تماما للكشف عن الفكاهة، ولكن هذه الخلافات الفكاهة مهمة أكثر تحديا. نناقش النماذج التي تتفوق في هذه المهمة، والتي تعزز التقنيات الإضافية أدائها، وتحليل الأخطاء التي لم يتم التقاطها من قبل أفضل الأنظمة.
تصف هذه الورقة النظام المستخدم للكشف عن الفكاهة في النص.يستخدم النظام الذي طوره فريق Techssn تقنيات التصنيف الثنائية لتصنيف النص.تخضع البيانات للبيانات المعالجة المسبقة وتعطى لكولبرت (التفاعل المتأخر السياسي على بيرت)، وهو تعديل تمثيل التشفير ثنائي ا لاتجاه من المحولات (بيرت).يتم إعادة تدريب النموذج ويتم تعلم الأوزان في DataSet.تم تطوير هذا النظام للمهمة 7 من المسابقة، Semeval 2021.
أصبح الكشف عن الفكاهة موضوع اهتمام بالعديد من فرق البحث، وخاصة المشاركين في الدراسات الاجتماعية والنفسية، بهدف الكشف عن الفكاهة والأشجار السكانية المستهدفة (مثل مجتمع، مدينة، أي بلد، موظفوشركة معينة).قامت معظم الدراسات الحالية بصياغة مشكلة الكشف عن ا لفكاهة باعتبارها مهمة تصنيف ثنائية، بينما تدور حول تعلم شعور الفكاهة من خلال تقييم درجاتها المختلفة.في هذه الورقة، نقترح نموذج التعلم العميق متعدد الإنهاء (MTL) للكشف عن الفكاهة والجريمة.وهي تتألف من ترميز محول مدرب مسبقا وطبقات اهتمام خاص بمهام المهام.يتم تدريب النموذج باستخدام وزن خسارة عدم اليقين MTL للجمع بين جميع الوظائف الموضوعية ذات المهام الفرعية.يتناول نموذج MTL الخاص بنا جميع المهام الفرعية لمهمة Semeval-2021-7 في نظام التعلم العميق في نهاية واحد ويظهر نتائج واعدة للغاية.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا