على الرغم من تطبيق نماذج التسلسل العصبي للتسلسل بنجاح على التحليل الدلالي، إلا أنها تفشل في التعميم التركيبي، أي أنها غير قادرة على التعميم بشكل منهجي لتركيبات غير مرئية من مكونات المشاهدة. بدافع من التحليل الدلالي التقليدي حيث يتم احتساب التركيز بشكل صريح من قبل النحو الرمزي، نقترح إطار فك التشفير الجديد الذي يحافظ على التعبير عن النماذج والعمومية من نماذج التسلسل إلى التسلسل مع تضم محاذاة على غرار المعجم ومعالجة المعلومات المنفذة. على وجه التحديد، نقوم بتحلل فك التشفير في مرحلتين حيث يتم وضع علامة على حامل الإدخال أولا مع رموز الدلالية التي تمثل معنى الكلمات الفردية، ثم يتم استخدام نموذج تسلسل إلى تسلسل للتنبؤ بتصميم تمثيل المعنى النهائي على الكلام والعلامة المتوقعة تسلسل. النتائج التجريبية على ثلاث مجموعات بيانات تحليل الدلالات توضح أن النهج المقترح يحسن باستمرار التعميم التركيبي عبر الهندسة النموذجية والنطاقات والإضفاءات الدلالية.
Although neural sequence-to-sequence models have been successfully applied to semantic parsing, they fail at compositional generalization, i.e., they are unable to systematically generalize to unseen compositions of seen components. Motivated by traditional semantic parsing where compositionality is explicitly accounted for by symbolic grammars, we propose a new decoding framework that preserves the expressivity and generality of sequence-to-sequence models while featuring lexicon-style alignments and disentangled information processing. Specifically, we decompose decoding into two phases where an input utterance is first tagged with semantic symbols representing the meaning of individual words, and then a sequence-to-sequence model is used to predict the final meaning representation conditioning on the utterance and the predicted tag sequence. Experimental results on three semantic parsing datasets show that the proposed approach consistently improves compositional generalization across model architectures, domains, and semantic formalisms.
References used
https://aclanthology.org/
We describe a span-level supervised attention loss that improves compositional generalization in semantic parsers. Our approach builds on existing losses that encourage attention maps in neural sequence-to-sequence models to imitate the output of cla
Deep reinforcement learning provides a promising approach for text-based games in studying natural language communication between humans and artificial agents. However, the generalization still remains a big challenge as the agents depend critically
Humans are remarkably flexible when understanding new sentences that include combinations of concepts they have never encountered before. Recent work has shown that while deep networks can mimic some human language abilities when presented with novel
Image captioning systems are expected to have the ability to combine individual concepts when describing scenes with concept combinations that are not observed during training. In spite of significant progress in image captioning with the help of the
Although recent developments in neural architectures and pre-trained representations have greatly increased state-of-the-art model performance on fully-supervised semantic role labeling (SRL), the task remains challenging for languages where supervis