تهدف مهمة اكتشاف الحدث (ED) في استخراج المعلومات إلى الاعتراف وتصنيف كلمات الأحداث في النص. تميز التقدم الأخير نماذج لغوية متقدمة للمحولات المتقدمة (على سبيل المثال، بيرت) كعنصر حاسم في النماذج الحديثة للإد. ومع ذلك، فإن الحد الطول لنصوص الإدخال هو حاجز لمثل هذه النماذج المحددة لأنها لا تستطيع تشفير سياق مستوي المستند طويل المدى الذي ثبت أنه مفيد لإد إد. لمعالجة هذه المشكلة، نقترح طريقة رواية لنموذج سياق مستوى المستندات لتحديد الجمل ذات الصلة بشكل حيوي في وثيقة التنبؤ بالحدث بالسجن الهدف. سيتم بعد ذلك زيادة الجملة المستهدفة بالجمل المختارة وتستهلكها النماذج اللغوية القائمة على المحولات لتعلم التمثيل المحسن. تحقيقا لهذه الغاية، يتم استخدام خوارزمية التعزيز لتدريب اختيار الجملة ذات الصلة من أجل إد. يتم بعد ذلك تقديم العديد من أنواع المعلومات لتشكيل وظيفة المكافآت لعملية التدريب، بما في ذلك أداء إد، وإشراك الجملة، وعلاقات الخطاب. تجاه تجاربنا الواسعة على مجموعات البيانات القياسية المتعددة تكشف عن فعالية النموذج المقترح، مما يؤدي إلى أداء جديد من الفنادق الجديدة.
The task of Event Detection (ED) in Information Extraction aims to recognize and classify trigger words of events in text. The recent progress has featured advanced transformer-based language models (e.g., BERT) as a critical component in state-of-the-art models for ED. However, the length limit for input texts is a barrier for such ED models as they cannot encode long-range document-level context that has been shown to be beneficial for ED. To address this issue, we propose a novel method to model document-level context for ED that dynamically selects relevant sentences in the document for the event prediction of the target sentence. The target sentence will be then augmented with the selected sentences and consumed entirely by transformer-based language models for improved representation learning for ED. To this end, the REINFORCE algorithm is employed to train the relevant sentence selection for ED. Several information types are then introduced to form the reward function for the training process, including ED performance, sentence similarity, and discourse relations. Our extensive experiments on multiple benchmark datasets reveal the effectiveness of the proposed model, leading to new state-of-the-art performance.
References used
https://aclanthology.org/
Natural language generation (NLG) tasks on pro-drop languages are known to suffer from zero pronoun (ZP) problems, and the problems remain challenging due to the scarcity of ZP-annotated NLG corpora. In this case, we propose a highly adaptive two-sta
Implicit discourse relation recognition (IDRR) aims to identify logical relations between two adjacent sentences in the discourse. Existing models fail to fully utilize the contextual information which plays an important role in interpreting each loc
Document machine translation aims to translate the source sentence into the target language in the presence of additional contextual information. However, it typically suffers from a lack of doc-level bilingual data. To remedy this, here we propose a
Embedding based methods are widely used for unsupervised keyphrase extraction (UKE) tasks. Generally, these methods simply calculate similarities between phrase embeddings and document embedding, which is insufficient to capture different context for
Since their inception, transformer-based language models have led to impressive performance gains across multiple natural language processing tasks. For Arabic, the current state-of-the-art results on most datasets are achieved by the AraBERT languag