تقدم هذه الورقة وصف نظام فريق المحور، الذي يفسر العمل ذي الصلة والنتائج التجريبية لمشاركة فريقنا في مهمة Semeval 2021 7: Hahackathon: الكشف عن الفكاهة والجريمة. لقد نجحنا بنجاح في نتائج التنبؤ بنتائج الاختبار للمجموعة الفرعية في المهمة. الهدف من المهمة هو إجراء الكشف عن الفكاهة، وتقييم الصف، والتقييم الهجومي على كل بيانات نصية إنجليزية في مجموعة البيانات. يمكن تقسيم المهام إلى نوعين من المهن الفرعية. واحد هو مهمة تصنيف النص، والآخر هو مهمة الانحدار النصي. ما نحتاج إليه هو استخدام طريقتنا للكشف عن المعلومات الفكاهة والهجومية من الجملة بدقة قدر الإمكان. تتكون الأساليب المستخدمة في النتائج المقدمة من فريقنا أساسا من خوارزميات ألبرت وشبك سي إن إن و TF-جيش الدفاع الإسرائيلي. إن مؤشرات تقييم النتائج المقدمة من مهمة التصنيف هي درجة ودقة F1. مؤشر تقييم النتائج لتقديم مهمة الانحدار هو RMSE. النتائج النهائية لنتائج التنبؤ لمجموعات الاختبار الفرعي المقدم من فريقنا هي Task1a 0.921 (F1)، TASK1A 0.9364 (الدقة)، TASK1B 0.6288 (RMSE)، TASK1C 0.5333 (F1)، TASK1C 0.0.5591 (الدقة)، و TASK2 0.5027 (RMSE) على التوالي.
This paper introduces the system description of the hub team, which explains the related work and experimental results of our team's participation in SemEval 2021 Task 7: HaHackathon: Detecting and Rating Humor and Offense. We successfully submitted the test set prediction results of the two subtasks in the task. The goal of the task is to perform humor detection, grade evaluation, and offensive evaluation on each English text data in the data set. Tasks can be divided into two types of subtasks. One is a text classification task, and the other is a text regression task. What we need to do is to use our method to detect the humor and offensive information of the sentence as accurately as possible. The methods used in the results submitted by our team are mainly composed of ALBERT, CNN, and Tf-Idf algorithms. The result evaluation indicators submitted by the classification task are F1 score and Accuracy. The result evaluation index of the regression task submission is the RMSE. The final scores of the prediction results of the two subtask test sets submitted by our team are task1a 0.921 (F1), task1a 0.9364 (Accuracy), task1b 0.6288 (RMSE), task1c 0.5333 (F1), task1c 0.0.5591 (Accuracy), and task2 0.5027 (RMSE) respectively.
References used
https://aclanthology.org/
This paper describes our contribution to SemEval-2021 Task 7: Detecting and Rating Humor and Of-fense.This task contains two sub-tasks, sub-task 1and sub-task 2. Among them, sub-task 1 containsthree sub-tasks, sub-task 1a ,sub-task 1b and sub-task 1c
SemEval 2021 Task 7, HaHackathon, was the first shared task to combine the previously separate domains of humor detection and offense detection. We collected 10,000 texts from Twitter and the Kaggle Short Jokes dataset, and had each annotated for hum
This article introduces the submission of subtask 1 and subtask 2 that we participate in SemEval-2021 Task 7: HaHackathon: Detecting and Rating Humor and Offense, we use a model based on ALBERT that uses ALBERT as the module for extracting text featu
Humor recognition is a challenging task in natural language processing. This document presents my approaches to detect and rate humor and offense from the given text. This task includes 2 tasks: task 1 which contains 3 subtasks (1a, 1b, and 1c), and
The HaHackathon: Detecting and Rating Humor and Offense'' task at the SemEval 2021 competition focuses on detecting and rating the humor level in sentences, as well as the level of offensiveness contained in these texts with humoristic tones. In this