تعد تحليل التمثيل المعنى التجريدي مهمة التنبؤ بالسجن إلى الرسم حيث لا تتماشى العقد المستهدفة بشكل صريح إلى رموز الجملة. ومع ذلك، نظرا لأن عقد الرسوم البيانية تستند بشكل دلون على أساس واحد أو أكثر من رموز الجملة، يمكن استخلاص المحاذاة الضمنية. تعمل المحللون المستقلون على الانتقال عبر الجملة من اليسار إلى اليمين، والتقاط هذا التحيز الاستقرائي عبر المحاذاة بتكلفة التعبير المحدود. في هذا العمل، نقترح نظام يستند إلى الانتقال الذي يجمع بين الصعب على الجمل مع آلية مؤشر الإجراءات ذات الجانب المستهدف لتحديد الرموز المصدر من تمثيلات العقدة ومحاذاة العناوين. نقوم بالنماذج التحولات وكذلك آلية المؤشر من خلال تعديلات واضحة داخل بنية محول واحدة. يتم تشفير معلومات هيكل الدولة ومحلل الرسم البياني بكفاءة باستخدام رؤوس الانتباه. نظظ أن نهج مؤشر العمل لدينا يؤدي إلى زيادة التعبير عن التعبير والكتابة مكاسب كبيرة (+1.6 نقطة) مقابل أفضل محلل عمرو على الانتقال في ظروف مماثلة للغاية. أثناء استخدام أي رسوم إعادة التصنيف الرسم البياني، فإن طرازنا الفردي ينتج عنه ثاني أفضل نقاط Smatch في AMR 2.0 (81.8)، والذي تم تحسينه إلى 83.4 مع بيانات الفضة والكشف عن الفرم.
Abstract Meaning Representation parsing is a sentence-to-graph prediction task where target nodes are not explicitly aligned to sentence tokens. However, since graph nodes are semantically based on one or more sentence tokens, implicit alignments can be derived. Transition-based parsers operate over the sentence from left to right, capturing this inductive bias via alignments at the cost of limited expressiveness. In this work, we propose a transition-based system that combines hard-attention over sentences with a target-side action pointer mechanism to decouple source tokens from node representations and address alignments. We model the transitions as well as the pointer mechanism through straightforward modifications within a single Transformer architecture. Parser state and graph structure information are efficiently encoded using attention heads. We show that our action-pointer approach leads to increased expressiveness and attains large gains (+1.6 points) against the best transition-based AMR parser in very similar conditions. While using no graph re-categorization, our single model yields the second best Smatch score on AMR 2.0 (81.8), which is further improved to 83.4 with silver data and ensemble decoding.
References used
https://aclanthology.org/
We study multilingual AMR parsing from the perspective of knowledge distillation, where the aim is to learn and improve a multilingual AMR parser by using an existing English parser as its teacher. We constrain our exploration in a strict multilingua
Lacking sufficient human-annotated data is one main challenge for abstract meaning representation (AMR) parsing. To alleviate this problem, previous works usually make use of silver data or pre-trained language models. In particular, one recent seq-t
In a current experiment we were testing CommonGen dataset for structure-to-text task from GEM living benchmark with the constraint based POINTER model. POINTER represents a hybrid architecture, combining insertion-based and transformer paradigms, pre
We propose the Recursive Non-autoregressive Graph-to-Graph Transformer architecture (RNGTr) for the iterative refinement of arbitrary graphs through the recursive application of a non-autoregressive Graph-to-Graph Transformer and apply it to syntacti
Predicting linearized Abstract Meaning Representation (AMR) graphs using pre-trained sequence-to-sequence Transformer models has recently led to large improvements on AMR parsing benchmarks. These parsers are simple and avoid explicit modeling of str