في السنوات الأخيرة، أدى الاستخدام الواسع للوسائط الاجتماعية إلى زيادة في جيل من المحتوى السام والهجومي على المنصات عبر الإنترنت. استجابة، عملت منصات وسائل التواصل الاجتماعي على تطوير أساليب الكشف التلقائي وتوظيف المشرفين البشري للتعامل مع هذا الطوفان من المحتوى الهجومي. في حين تم تطبيق العديد من النماذج الإحصائية للحدث من بين الفنون للكشف عن الوظائف السامة، لا توجد سوى عدد قليل من الدراسات التي تركز على الكشف عن الكلمات أو التعبيرات التي تشكل هجوما بعد. هذا يحفز تنظيم مهمة Semeval-2021 5: مسابقة الكشف عن المسافات السامة، التي قدمت المشاركين مع مجموعة بيانات تحتوي على شرح سام يمتد في المشاركات الإنكليزية. في هذه الورقة، نقدم دخول WLV-RIT لمهمة Semeval-2021 5. يحقق نموذجنا الأفضل أداء محول العصبي 0.68 F1 درجة. علاوة على ذلك، نقوم بتطوير إطار مفتوح المصدر للكشف المتعدد اللغات عن الممثل الهجومي، أي القنص، بناء على المحولات العصبية التي تكتشف تمديد السام في النصوص.
In recent years, the widespread use of social media has led to an increase in the generation of toxic and offensive content on online platforms. In response, social media platforms have worked on developing automatic detection methods and employing human moderators to cope with this deluge of offensive content. While various state-of-the-art statistical models have been applied to detect toxic posts, there are only a few studies that focus on detecting the words or expressions that make a post offensive. This motivates the organization of the SemEval-2021 Task 5: Toxic Spans Detection competition, which has provided participants with a dataset containing toxic spans annotation in English posts. In this paper, we present the WLV-RIT entry for the SemEval-2021 Task 5. Our best performing neural transformer model achieves an 0.68 F1-Score. Furthermore, we develop an open-source framework for multilingual detection of offensive spans, i.e., MUDES, based on neural transformers that detect toxic spans in texts.
References used
https://aclanthology.org/
This paper presents our submission to SemEval-2021 Task 5: Toxic Spans Detection. The purpose of this task is to detect the spans that make a text toxic, which is a complex labour for several reasons. Firstly, because of the intrinsic subjectivity of
This paper describes the participation of SINAI team at Task 5: Toxic Spans Detection which consists of identifying spans that make a text toxic. Although several resources and systems have been developed so far in the context of offensive language,
The Toxic Spans Detection task of SemEval-2021 required participants to predict the spans of toxic posts that were responsible for the toxic label of the posts. The task could be addressed as supervised sequence labeling, using training data with gol
Detection of toxic spans - detecting toxicity of contents in the granularity of tokens - is crucial for effective moderation of online discussions. The baseline approach for this problem using the transformer model is to add a token classification he
In this work, we present our approach and findings for SemEval-2021 Task 5 - Toxic Spans Detection. The task's main aim was to identify spans to which a given text's toxicity could be attributed. The task is challenging mainly due to two constraints: