تهدف مهمة اكتشاف الحدث (ED) إلى تصنيف الأحداث من خلال تحديد الحدث الرئيسي تصادف الكلمات المضمنة في جزء من النص. أثبتت الأبحاث السابقة صحة علاقات التبعية النحوية الصابورة في شبكات تشكيلة تشكيلة (GCN). في حين أن الأساليب القائمة على GCN الحالية تستكشف علاقات الاعتماد العقدة الكامنة وفقا لقطعة توتور بقيمة ثابتة، فإن العار الديناميكي القائم على الانتباه، والتي يمكن أن تؤدي الكثير من الاهتمام إلى العقدة الرئيسية مثل حفل الحدث أو العقد المجاورة، وبعد في وقت واحد، تعاني من ظاهرة معلومات الرسم البياني التلاشي الناجمة عن Tensor المتأخر المتماثل، نماذج GCN الحالية لا يمكن تحقيق أداء عموما أعلى. في هذه الورقة، نقترح نماذج رواية ناشئة عن النفس شبكات التنزل المتبقية (SA-GRCN) لعلاقات التبعية الكامنة لعدة عقدة من خلال آلية الاهتمام الذاتي وإدخال الشبكة المتبقية الرسم البياني (GRESNET) لحل مشكلة تخفيض المعلومات الرسم البيانية وبعد على وجه التحديد، يتم بناء وحدة انتباه ذاتي لتوليد موتر الاهتمام، مما يمثل عشرات اهتمام الاعتماد من جميع الكلمات في الجملة. علاوة على ذلك، يضاف مصطلح الرسم البياني المتبقي إلى خط الأساس SA-GCN لبناء GRESNET. بالنظر إلى الاتصال النحوي لإدخال الشبكة، نقوم بتهيئة موتر المشجعي الناشئ دون معالجة وحدة الاهتمام الذاتي باعتباره المصطلح المتبقي. نقوم بإجراء تجارب على مجموعة بيانات ACE2005 وتظهر النتائج تحسنا كبيرا بشأن أساليب خط الأساس التنافسية.
Event detection (ED) task aims to classify events by identifying key event trigger words embedded in a piece of text. Previous research have proved the validity of fusing syntactic dependency relations into Graph Convolutional Networks(GCN). While existing GCN-based methods explore latent node-to-node dependency relations according to a stationary adjacency tensor, an attention-based dynamic tensor, which can pay much attention to the key node like event trigger or its neighboring nodes, has not been developed. Simultaneously, suffering from the phenomenon of graph information vanishing caused by the symmetric adjacency tensor, existing GCN models can not achieve higher overall performance. In this paper, we propose a novel model Self-Attention Graph Residual Convolution Networks (SA-GRCN) to mine node-to-node latent dependency relations via self-attention mechanism and introduce Graph Residual Network (GResNet) to solve graph information vanishing problem. Specifically, a self-attention module is constructed to generate an attention tensor, representing the dependency attention scores of all words in the sentence. Furthermore, a graph residual term is added to the baseline SA-GCN to construct a GResNet. Considering the syntactically connection of the network input, we initialize the raw adjacency tensor without processed by the self-attention module as the residual term. We conduct experiments on the ACE2005 dataset and the results show significant improvement over competitive baseline methods.
References used
https://aclanthology.org/
Recent works show that the graph structure of sentences, generated from dependency parsers, has potential for improving event detection. However, they often only leverage the edges (dependencies) between words, and discard the dependency labels (e.g.
We study the problem of Event Causality Identification (ECI) to detect causal relation between event mention pairs in text. Although deep learning models have recently shown state-of-the-art performance for ECI, they are limited to the intra-sentence
We propose the Recursive Non-autoregressive Graph-to-Graph Transformer architecture (RNGTr) for the iterative refinement of arbitrary graphs through the recursive application of a non-autoregressive Graph-to-Graph Transformer and apply it to syntacti
The goal of Event Factuality Prediction (EFP) is to determine the factual degree of an event mention, representing how likely the event mention has happened in text. Current deep learning models has demonstrated the importance of syntactic and semant
Sentence fusion is a conditional generation task that merges several related sentences into a coherent one, which can be deemed as a summary sentence. The importance of sentence fusion has long been recognized by communities in natural language gener