تستخدم منصات الشبكة الاجتماعية عموما لمشاركة المحتوى الإيجابي والبناء والرائعة. ومع ذلك، في الآونة الأخيرة، غالبا ما يتعرض الناس على المحتوى المرفوض مثل التهديد وهجمات الهوية أو خطاب الكراهية أو الإهانات أو النصوص الفاحشة أو الملاحظات الهجومية أو البلطجة. يركز العمل الحالي على كشف الكلام السام على التصنيف الثنائي أو على التمييز الخطاب السام بين مجموعة صغيرة من الفئات. تصف هذه الورقة النظام الذي اقترحه فريق Cisco for Semeval-2021 المهمة 5: الكشف عن الأمور السامة، أول مهمة مشتركة تركز على اكتشاف المواقف في النص الذي يعزى إلى سميته، باللغة الإنجليزية. نحن نقترب من هذه المشكلة في المقام الأول بطريقتين: نهج علامات التسلسل ونهج تحليل التبعية. في نهج علامات التسلسل لدينا، نعلم كل رمز رمزي في جملة تحت مخطط وضع علامات معينة. أثبتت بنية الأداء الخاصة بنا في هذا النهج أيضا أنها أفضل بنية أداء لدينا بشكل عام مع درجة F1 من 0.6922، وبالتالي وضع 7 لنا في مرحلة التقييم النهائية المتصدرين. نستكشف أيضا نهج تحليل التبعية حيث استخرفنا يمتد من عقوبة الإدخال تحت إشراف حدود المستهدفة المستهدفة وترتيب تمديدنا باستخدام نموذج بيافين. أخيرا، نقدم أيضا تحليلا مفصلا لنتائجنا وأداء النموذج في ورقنا.
Social network platforms are generally used to share positive, constructive, and insightful content. However, in recent times, people often get exposed to objectionable content like threat, identity attacks, hate speech, insults, obscene texts, offensive remarks or bullying. Existing work on toxic speech detection focuses on binary classification or on differentiating toxic speech among a small set of categories. This paper describes the system proposed by team Cisco for SemEval-2021 Task 5: Toxic Spans Detection, the first shared task focusing on detecting the spans in the text that attribute to its toxicity, in English language. We approach this problem primarily in two ways: a sequence tagging approach and a dependency parsing approach. In our sequence tagging approach we tag each token in a sentence under a particular tagging scheme. Our best performing architecture in this approach also proved to be our best performing architecture overall with an F1 score of 0.6922, thereby placing us 7th on the final evaluation phase leaderboard. We also explore a dependency parsing approach where we extract spans from the input sentence under the supervision of target span boundaries and rank our spans using a biaffine model. Finally, we also provide a detailed analysis of our results and model performance in our paper.
References used
https://aclanthology.org/
We leverage a BLSTM with attention to identify toxic spans in texts. We explore different dimensions which affect the model's performance. The first dimension explored is the toxic set the model is trained on. Besides the provided dataset, we explore
The Toxic Spans Detection task of SemEval-2021 required participants to predict the spans of toxic posts that were responsible for the toxic label of the posts. The task could be addressed as supervised sequence labeling, using training data with gol
This article introduces the system description of the hub team, which explains the related work and experimental results of our team's participation in SemEval 2021 Task 5: Toxic Spans Detection. The data for this shared task comes from some posts on
Recurrent Neural Networks (RNN) have been widely used in various Natural Language Processing (NLP) tasks such as text classification, sequence tagging, and machine translation. Long Short Term Memory (LSTM), a special unit of RNN, has the benefit of
With the rapid growth in technology, social media activity has seen a boom across all age groups. It is humanly impossible to check all the tweets, comments and status manually whether they follow proper community guidelines. A lot of toxicity is reg