تفترض الدراسات المسبقة عن جيل النص إلى النص عادة أن النموذج يمكن أن يكتشف ما هو الحضور في المدخلات وما يجب تضمينه في الإخراج عبر التعلم SEQ2SEQ، مع فقط بيانات التدريب الموازي وليس هناك إرشادات إضافية. ومع ذلك، لا يزال غير واضح ما إذا كانت النماذج الحالية يمكن أن تحافظ على مفاهيم مهمة في مدخلات المصدر، حيث لا يكون لتعلم SEQ2SeQ تركيز صريح على المفاهيم ومقاييس التقييم الشائعة الاستخدام تعاملها بنفس القدر من الأهمية بنفس القدر من الأهمية. في هذه الورقة، نقدم تحليلا منهجيا يدرس ما إذا كانت نماذج SEQ2SEQ الحالية، خاصة نماذج اللغة المدربة مسبقا، جيدة بما يكفي للحفاظ على مفاهيم الإدخال المهمة وإلى أي مدى توجيه الجيل الصريح مع مفاهيم القيود المعجمية مفيدة. نجيب على الأسئلة المذكورة أعلاه من خلال إجراء تجارب تحليلية مكثفة على أربع مهام توليد نصية ممثلة للنص. بناء على الملاحظات، فإننا نقترح بعد ذلك إطارا بسيطا بعد فعالا لاستخراج مفاهيم الإدخال والانحدار وفرضها تلقائيا كقيود معجمية. تؤدي هذه الطريقة الجديدة بشكل مبادل أو أفضل من نظيرها غير المقيد في المقاييس التلقائية، ويوضح تغطية أعلى للحفاظ على المفهوم، وتتلقى تصنيفات أفضل في التقييم البشري. يتوفر الكود الخاص بنا في https://github.com/morningmoni/ede.
Prior studies on text-to-text generation typically assume that the model could figure out what to attend to in the input and what to include in the output via seq2seq learning, with only the parallel training data and no additional guidance. However, it remains unclear whether current models can preserve important concepts in the source input, as seq2seq learning does not have explicit focus on the concepts and commonly used evaluation metrics also treat them equally important as other tokens. In this paper, we present a systematic analysis that studies whether current seq2seq models, especially pre-trained language models, are good enough for preserving important input concepts and to what extent explicitly guiding generation with the concepts as lexical constraints is beneficial. We answer the above questions by conducting extensive analytical experiments on four representative text-to-text generation tasks. Based on the observations, we then propose a simple yet effective framework to automatically extract, denoise, and enforce important input concepts as lexical constraints. This new method performs comparably or better than its unconstrained counterpart on automatic metrics, demonstrates higher coverage for concept preservation, and receives better ratings in the human evaluation. Our code is available at https://github.com/morningmoni/EDE.
References used
https://aclanthology.org/
This paper describes our contribution to the Shared Task ReproGen by Belz et al. (2021), which investigates the reproducibility of human evaluations in the context of Natural Language Generation. We selected the paper Generation of Company descriptio
We motivate and propose a suite of simple but effective improvements for concept-to-text generation called SAPPHIRE: Set Augmentation and Post-hoc PHrase Infilling and REcombination. We demonstrate their effectiveness on generative commonsense reason
This research shows the concept of sentence syntax and the text
syntax and the difference between them, beside their respective
areas .It also tries to specify the obstacles which prevent the
progress of this kind of linguistic lesson in our Arabi
With the growing popularity of smart speakers, such as Amazon Alexa, speech is becoming one of the most important modes of human-computer interaction. Automatic speech recognition (ASR) is arguably the most critical component of such systems, as erro
We present an end-to-end neural approach to generate English sentences from formal meaning representations, Discourse Representation Structures (DRSs). We use a rather standard bi-LSTM sequence-to-sequence model, work with a linearized DRS input repr