يتطلب تدريب نموذج التعلم العميق القوي والموثوق كمية كبيرة من البيانات.في مجال الأزمات، يبني نماذج تعليمية عميقة لتحديد المعلومات القابلة للتنفيذ من التدفق الضخم للبيانات المنشورة من قبل شهود فعاليات الأزمات على وسائل التواصل الاجتماعي، في غضون فترة حرجة، هي مركزية لعمليات الاستجابة السريعة والإغاثة.ومع ذلك، فإن بناء مجموعة بيانات كبيرة ومصفحة لتدريب نماذج التعلم العميق ليست ممكنة دائما في وضع الأزمات.في هذه الورقة، نحقق في نهج تعليمي متعدد المهام لزيارة البيانات المشروحة المتاحة المتاحة لعدة مهام ذات صلة من مجال الأزمات لتحسين الأداء في مهمة رئيسية مع بيانات مخفية محدودة.على وجه التحديد، نركز على استخدام التعلم متعدد المهام لتحسين الأداء في مهمة تحديد الموقع في تغريدات الأزمات.
Training a robust and reliable deep learning model requires a large amount of data. In the crisis domain, building deep learning models to identify actionable information from the huge influx of data posted by eyewitnesses of crisis events on social media, in a time-critical manner, is central for fast response and relief operations. However, building a large, annotated dataset to train deep learning models is not always feasible in a crisis situation. In this paper, we investigate a multi-task learning approach to concurrently leverage available annotated data for several related tasks from the crisis domain to improve the performance on a main task with limited annotated data. Specifically, we focus on using multi-task learning to improve the performance on the task of identifying location mentions in crisis tweets.
References used
https://aclanthology.org/
We propose a neural event coreference model in which event coreference is jointly trained with five tasks: trigger detection, entity coreference, anaphoricity determination, realis detection, and argument extraction. To guide the learning of this com
This paper presents our contribution to the Social Media Mining for Health Applications Shared Task 2021. We addressed all the three subtasks of Task 1: Subtask A (classification of tweets containing adverse effects), Subtask B (extraction of text sp
Large-scale multi-modal classification aim to distinguish between different multi-modal data, and it has drawn dramatically attentions since last decade. In this paper, we propose a multi-task learning-based framework for the multimodal classificatio
Dialect and standard language identification are crucial tasks for many Arabic natural language processing applications. In this paper, we present our deep learning-based system, submitted to the second NADI shared task for country-level and province
We present CoTexT, a pre-trained, transformer-based encoder-decoder model that learns the representative context between natural language (NL) and programming language (PL). Using self-supervision, CoTexT is pre-trained on large programming language