في هذه الورقة، نصف نظامنا المقدم إلى Semeval 2021 المهمة 7: hahackathon: الكشف عن الفكاهة والعموم. تهدف المهمة إلى التنبؤ بما إذا كان النص المحدد مضحك، فإن التصنيف الفكاهي المتوسط الذي قدمه المعلقون، وما إذا كان تصنيف فكاهة مثيرة للجدل. بالإضافة إلى ذلك، تتضمن المهمة أيضا التنبؤ بمدى مسيئة النص. يتبنى نهجنا بنية Deberta مع آلية اهتمام DESRTANGLED، حيث يتم احتساب درجات الاهتمام بين الكلمات بناء على ناقلات المحتوى ونوافذ المنافذ النسبي. استفادنا أيضا من النماذج اللغوية المدربة مسبقا وصنع نموذج Deberta على جميع المهام الفرعية الأربعة. جربنا العديد من الهياكل التي تشبه بيرت ووجدت أن نموذج Deberta الكبير يعمل بشكل أفضل بشكل أفضل. خلال مرحلة التقييم، حقق نظامنا درجة F 0.9480 على الفرقة الفرعية 1A، ورمز من 0.5510 على الفرقة الفرعية 1B، درجة F 0.4764 على المراكب الفرعية 1C، و RMSE من 0.4230 على الفئة الفرعية 2A (المرتبة 3 على المتصدرين ).
In this paper, we describe our system submitted to SemEval 2021 Task 7: HaHackathon: Detecting and Rating Humor and Offense. The task aims at predicting whether the given text is humorous, the average humor rating given by the annotators, and whether the humor rating is controversial. In addition, the task also involves predicting how offensive the text is. Our approach adopts the DeBERTa architecture with disentangled attention mechanism, where the attention scores between words are calculated based on their content vectors and relative position vectors. We also took advantage of the pre-trained language models and fine-tuned the DeBERTa model on all the four subtasks. We experimented with several BERT-like structures and found that the large DeBERTa model generally performs better. During the evaluation phase, our system achieved an F-score of 0.9480 on subtask 1a, an RMSE of 0.5510 on subtask 1b, an F-score of 0.4764 on subtask 1c, and an RMSE of 0.4230 on subtask 2a (rank 3 on the leaderboard).
References used
https://aclanthology.org/
Humor recognition is a challenging task in natural language processing. This document presents my approaches to detect and rate humor and offense from the given text. This task includes 2 tasks: task 1 which contains 3 subtasks (1a, 1b, and 1c), and
SemEval 2021 Task 7, HaHackathon, was the first shared task to combine the previously separate domains of humor detection and offense detection. We collected 10,000 texts from Twitter and the Kaggle Short Jokes dataset, and had each annotated for hum
Humor detection and rating poses interesting linguistic challenges to NLP; it is highly subjective depending on the perceptions of a joke and the context in which it is used. This paper utilizes and compares transformers models; BERT base and Large,
This paper describes our contribution to SemEval-2021 Task 7: Detecting and Rating Humor and Of-fense.This task contains two sub-tasks, sub-task 1and sub-task 2. Among them, sub-task 1 containsthree sub-tasks, sub-task 1a ,sub-task 1b and sub-task 1c
This article introduces the submission of subtask 1 and subtask 2 that we participate in SemEval-2021 Task 7: HaHackathon: Detecting and Rating Humor and Offense, we use a model based on ALBERT that uses ALBERT as the module for extracting text featu