تعمل الأعمال الموجودة على استخراج المعلومات (IE) بشكل أساسي المهام الرئيسية الأربعة بشكل منفصل (إبلاغ الكيان بالاعتراف بالاعتراف، واستخراج العلاقة، والكشف عن الحدث، واستخراج الوسيطة)، وبالتالي الفشل في الاستفادة من التبعيات بين المهام. تقدم هذه الورقة نموذجا تعليميا عميقا جديدا لحل المهام الأربع الأربعة في وقت واحد في نموذج واحد (يسمى Fourie). بالمقارنة مع عدد قليل من العمل السابق في أداء مهام IE المشتركة، تتميز Fourie بمساهمات جديدة لالتقاط التبعيات بين المهام. أولا، في مستوى التمثيل، نقدم رسم بياني تفاعل بين مثيلات المهام الأربعة المستخدمة لإثراء تمثيل التنبؤ بمثيل واحد مع أولئك من مثيلات المهام الأخرى ذات الصلة. ثانيا، على مستوى العلامة، نقترح رسم بياني للاعتماد لأنواع المعلومات في المهام الأربعة IE التي تلتقط الاتصالات بين الأنواع المعبر عنها في جملة مدخلات. يتم تقديم آلية تنظيمية جديدة لإنفاذ الاتساق بين الرسوم البيانية الذهبية المتوقعة والتنبؤ بها لتحسين تعلم التمثيل. نظهر أن النموذج المقترح يحقق الأداء الحديثة للمفصل IE على كل من إعدادات التعلم أحادية اللغات وغير اللغوية بأثلاثة لغات مختلفة.
Existing works on information extraction (IE) have mainly solved the four main tasks separately (entity mention recognition, relation extraction, event trigger detection, and argument extraction), thus failing to benefit from inter-dependencies between tasks. This paper presents a novel deep learning model to simultaneously solve the four tasks of IE in a single model (called FourIE). Compared to few prior work on jointly performing four IE tasks, FourIE features two novel contributions to capture inter-dependencies between tasks. First, at the representation level, we introduce an interaction graph between instances of the four tasks that is used to enrich the prediction representation for one instance with those from related instances of other tasks. Second, at the label level, we propose a dependency graph for the information types in the four IE tasks that captures the connections between the types expressed in an input sentence. A new regularization mechanism is introduced to enforce the consistency between the golden and predicted type dependency graphs to improve representation learning. We show that the proposed model achieves the state-of-the-art performance for joint IE on both monolingual and multilingual learning settings with three different languages.
References used
https://aclanthology.org/
The tasks of Rich Semantic Parsing, such as Abstract Meaning Representation (AMR), share similar goals with Information Extraction (IE) to convert natural language texts into structured semantic representations. To take advantage of such similarity,
We study the problem of Event Causality Identification (ECI) to detect causal relation between event mention pairs in text. Although deep learning models have recently shown state-of-the-art performance for ECI, they are limited to the intra-sentence
Recent metaphor identification approaches mainly consider the contextual text features within a sentence or introduce external linguistic features to the model. But they usually ignore the extra information that the data can provide, such as the cont
Recent progress in pretrained Transformer-based language models has shown great success in learning contextual representation of text. However, due to the quadratic self-attention complexity, most of the pretrained Transformers models can only handle
We offer a fine-grained information state annotation scheme that follows directly from the Incremental Unit abstract model of dialogue processing when used within a multimodal, co-located, interactive setting. We explain the Incremental Unit model and give an example application using the Localized Narratives dataset, then offer avenues for future research.