تصف هذه الورقة مشاركة فريق سيناء في المهمة 5: الكشف عن الأمور السامة التي تتكون من تحديد المواقف التي تجعل النص سام.على الرغم من أن العديد من الموارد والأنظمة قد تم تطويرها حتى الآن في سياق اللغة الهجومية، ركزت كل من التوضيحية والمهام بشكل رئيسي على تصنيف ما إذا كان النص مسيء أم لا.ومع ذلك، فإن اكتشاف المواقف السامة أمر بالغ الأهمية لتحديد سبب وجود نص سام ويمكنه مساعدة المشرفين البشري لتحديد موقع هذا النوع من المحتوى على وسائل التواصل الاجتماعي.من أجل إنجاز المهمة، نتبع نهجا عميقا قائم على التعلم باستخدام متغير ثنائي الاتجاه لشبكة ذاكرة طويلة الأجل طويلة إلى جانب طبقة فكري حقل عشوائية مشروطة (Bilstm-CRF).على وجه التحديد، نختبر أداء مزيج من مختلف تضمين الكلمة المدربة مسبقا للتعرف على الكيانات السامة في النص.تظهر النتائج أن مزيج من Adgeddings يساعد في اكتشاف المحتوى الهجومي.يرتب فريقنا 29 من أصل 91 مشاركا.
This paper describes the participation of SINAI team at Task 5: Toxic Spans Detection which consists of identifying spans that make a text toxic. Although several resources and systems have been developed so far in the context of offensive language, both annotation and tasks have mainly focused on classifying whether a text is offensive or not. However, detecting toxic spans is crucial to identify why a text is toxic and can assist human moderators to locate this type of content on social media. In order to accomplish the task, we follow a deep learning-based approach using a Bidirectional variant of a Long Short Term Memory network along with a stacked Conditional Random Field decoding layer (BiLSTM-CRF). Specifically, we test the performance of the combination of different pre-trained word embeddings for recognizing toxic entities in text. The results show that the combination of word embeddings helps in detecting offensive content. Our team ranks 29th out of 91 participants.
References used
https://aclanthology.org/
This paper presents a system used for SemEval-2021 Task 5: Toxic Spans Detection. Our system is an ensemble of BERT-based models for binary word classification, trained on a dataset extended by toxic comments modified and generated by two language mo
Toxic language is often present in online forums, especially when politics and other polarizing topics arise, and can lead to people becoming discouraged from joining or continuing conversations. In this paper, we use data consisting of comments with
This paper presents our submission to SemEval-2021 Task 5: Toxic Spans Detection. The purpose of this task is to detect the spans that make a text toxic, which is a complex labour for several reasons. Firstly, because of the intrinsic subjectivity of
Detecting which parts of a sentence contribute to that sentence's toxicity---rather than providing a sentence-level verdict of hatefulness--- would increase the interpretability of models and allow human moderators to better understand the outputs of
The Toxic Spans Detection task of SemEval-2021 required participants to predict the spans of toxic posts that were responsible for the toxic label of the posts. The task could be addressed as supervised sequence labeling, using training data with gol