تهدف مهمة اكتشاف الحدث (ED) إلى تصنيف الأحداث من خلال تحديد الحدث الرئيسي تصادف الكلمات المضمنة في جزء من النص. أثبتت الأبحاث السابقة صحة علاقات التبعية النحوية الصابورة في شبكات تشكيلة تشكيلة (GCN). في حين أن الأساليب القائمة على GCN الحالية تستكشف علاقات الاعتماد العقدة الكامنة وفقا لقطعة توتور بقيمة ثابتة، فإن العار الديناميكي القائم على الانتباه، والتي يمكن أن تؤدي الكثير من الاهتمام إلى العقدة الرئيسية مثل حفل الحدث أو العقد المجاورة، وبعد في وقت واحد، تعاني من ظاهرة معلومات الرسم البياني التلاشي الناجمة عن Tensor المتأخر المتماثل، نماذج GCN الحالية لا يمكن تحقيق أداء عموما أعلى. في هذه الورقة، نقترح نماذج رواية ناشئة عن النفس شبكات التنزل المتبقية (SA-GRCN) لعلاقات التبعية الكامنة لعدة عقدة من خلال آلية الاهتمام الذاتي وإدخال الشبكة المتبقية الرسم البياني (GRESNET) لحل مشكلة تخفيض المعلومات الرسم البيانية وبعد على وجه التحديد، يتم بناء وحدة انتباه ذاتي لتوليد موتر الاهتمام، مما يمثل عشرات اهتمام الاعتماد من جميع الكلمات في الجملة. علاوة على ذلك، يضاف مصطلح الرسم البياني المتبقي إلى خط الأساس SA-GCN لبناء GRESNET. بالنظر إلى الاتصال النحوي لإدخال الشبكة، نقوم بتهيئة موتر المشجعي الناشئ دون معالجة وحدة الاهتمام الذاتي باعتباره المصطلح المتبقي. نقوم بإجراء تجارب على مجموعة بيانات ACE2005 وتظهر النتائج تحسنا كبيرا بشأن أساليب خط الأساس التنافسية.
Event detection (ED) task aims to classify events by identifying key event trigger words embedded in a piece of text. Previous research have proved the validity of fusing syntactic dependency relations into Graph Convolutional Networks(GCN). While existing GCN-based methods explore latent node-to-node dependency relations according to a stationary adjacency tensor, an attention-based dynamic tensor, which can pay much attention to the key node like event trigger or its neighboring nodes, has not been developed. Simultaneously, suffering from the phenomenon of graph information vanishing caused by the symmetric adjacency tensor, existing GCN models can not achieve higher overall performance. In this paper, we propose a novel model Self-Attention Graph Residual Convolution Networks (SA-GRCN) to mine node-to-node latent dependency relations via self-attention mechanism and introduce Graph Residual Network (GResNet) to solve graph information vanishing problem. Specifically, a self-attention module is constructed to generate an attention tensor, representing the dependency attention scores of all words in the sentence. Furthermore, a graph residual term is added to the baseline SA-GCN to construct a GResNet. Considering the syntactically connection of the network input, we initialize the raw adjacency tensor without processed by the self-attention module as the residual term. We conduct experiments on the ACE2005 dataset and the results show significant improvement over competitive baseline methods.
المراجع المستخدمة
https://aclanthology.org/
تظهر الأعمال الحديثة أن هيكل الرسم البياني للجملات، التي تم إنشاؤها من محلل التبعية، لديها إمكانات لتحسين اكتشاف الحدث.ومع ذلك، فإنهم غالبا ما يستفيدون فقط من الحواف (التبعيات) بين الكلمات، وتجاهل ملصقات التبعية (على سبيل المثال، الموضوع الاسمي)، معا
ندرس مشكلة تحديد السببية الحدث (ECI) للكشف عن العلاقة السببية بين الحدث تذكر أزواج في النص. على الرغم من أن نماذج التعلم العميق أظهرت مؤخرا الأداء الحديثة من أجل ECI، إلا أنها تقتصر على إعداد الجملة حيث يتم تقديم الحدث أزواج في نفس الجمل. يعالج هذا ا
نقترح هندسة محول الرسم البياني المتكرر للرسوم البيانية التلقائي (Rngtr) من أجل تحسين الرسوم البيانية التعسفية من خلال التطبيق العسكري لمحول الرسم البياني غير التلقائي إلى الرسم البياني وتطبيقه على تحليل التبعية النحوية.نوضح قوة وفعالية Rngtr على العد
هدف التنبؤ بالحقائق في الحدث (EFP) هو تحديد درجة الواقعية لذكر الحدث، مما يمثل مدى احتمال ذكر الحدث في النص.أظهرت نماذج التعلم العميق الحالية أهمية الهياكل النحوية واللاللالية للجمل لتحديد كلمات السياق الهامة ل EFP.ومع ذلك، فإن المشكلة الرئيسية في نم
الحكم من الانصهار هي مهمة توليد مشروطة تدمج العديد من الجمل ذات الصلة في واحدة متماسكة، والتي يمكن اعتبارها عقوبة ملخص. منذ فترة طويلة تم الاعتراف بأهمية الانصهار منذ فترة طويلة من قبل المجتمعات في توليد اللغة الطبيعية، وخاصة في تلخيص النص. لا يزال ي