تفترض الدراسات المسبقة عن جيل النص إلى النص عادة أن النموذج يمكن أن يكتشف ما هو الحضور في المدخلات وما يجب تضمينه في الإخراج عبر التعلم SEQ2SEQ، مع فقط بيانات التدريب الموازي وليس هناك إرشادات إضافية. ومع ذلك، لا يزال غير واضح ما إذا كانت النماذج الحالية يمكن أن تحافظ على مفاهيم مهمة في مدخلات المصدر، حيث لا يكون لتعلم SEQ2SeQ تركيز صريح على المفاهيم ومقاييس التقييم الشائعة الاستخدام تعاملها بنفس القدر من الأهمية بنفس القدر من الأهمية. في هذه الورقة، نقدم تحليلا منهجيا يدرس ما إذا كانت نماذج SEQ2SEQ الحالية، خاصة نماذج اللغة المدربة مسبقا، جيدة بما يكفي للحفاظ على مفاهيم الإدخال المهمة وإلى أي مدى توجيه الجيل الصريح مع مفاهيم القيود المعجمية مفيدة. نجيب على الأسئلة المذكورة أعلاه من خلال إجراء تجارب تحليلية مكثفة على أربع مهام توليد نصية ممثلة للنص. بناء على الملاحظات، فإننا نقترح بعد ذلك إطارا بسيطا بعد فعالا لاستخراج مفاهيم الإدخال والانحدار وفرضها تلقائيا كقيود معجمية. تؤدي هذه الطريقة الجديدة بشكل مبادل أو أفضل من نظيرها غير المقيد في المقاييس التلقائية، ويوضح تغطية أعلى للحفاظ على المفهوم، وتتلقى تصنيفات أفضل في التقييم البشري. يتوفر الكود الخاص بنا في https://github.com/morningmoni/ede.
Prior studies on text-to-text generation typically assume that the model could figure out what to attend to in the input and what to include in the output via seq2seq learning, with only the parallel training data and no additional guidance. However, it remains unclear whether current models can preserve important concepts in the source input, as seq2seq learning does not have explicit focus on the concepts and commonly used evaluation metrics also treat them equally important as other tokens. In this paper, we present a systematic analysis that studies whether current seq2seq models, especially pre-trained language models, are good enough for preserving important input concepts and to what extent explicitly guiding generation with the concepts as lexical constraints is beneficial. We answer the above questions by conducting extensive analytical experiments on four representative text-to-text generation tasks. Based on the observations, we then propose a simple yet effective framework to automatically extract, denoise, and enforce important input concepts as lexical constraints. This new method performs comparably or better than its unconstrained counterpart on automatic metrics, demonstrates higher coverage for concept preservation, and receives better ratings in the human evaluation. Our code is available at https://github.com/morningmoni/EDE.
المراجع المستخدمة
https://aclanthology.org/
تصف هذه الورقة مساهمتنا في المهمة المشتركة لإعادة تأييد Belz et al. (2021)، والذي يحقق في استنساخ التقييمات البشرية في سياق توليد اللغة الطبيعية. اخترنا توليد الورق من أوصاف الشركة باستخدام النماذج العميقة المفهوم إلى النص والنصوص العميقة: مجموعة الب
نحن نحفز واقتراح مجموعة من التحسينات البسيطة ولكنها فعالة لتوليد مفهوم إلى نص يسمى الياقوت: تعيين تعزز وبصورة ما بعد هوك تستلزم وإعادة التركيب.نوضح فعاليتها في مجال المنطق المنطقي الإنتاجية، A.K.a. مهمة Commongen، من خلال تجارب باستخدام نماذج BART و
يُبيّن هذا البحث مفهوم نحو الجملة، و مفهوم نحو النص، و الفروق بينهما،
و مجالات كلٍّ منهما، كما يحاول أن يُحدّد المعوّقات التي تمنع تقدّم هذا النوع من
الدرس اللغوي في جامعاتنا العربية، ثم يتوقّف عند اتّجاهات الدراسات اللغويّة التي
ظهر فيها هذا النو
مع وجود شعبية متزايدة للمتحدثين الذكية، مثل الأمازون اليكسا، أصبح الكلام أحد أهم طرق التفاعل بين الإنسان والحاسوب. يمكن القول إن التعرف التلقائي على التعرف على الكلام (ASR) هو العنصر الأكثر أهمية في هذه الأنظمة، حيث ينتشر أخطاء في التعرف على الكلام إ
نقدم نهج عصبي نهاية إلى نهج لإنشاء جمل إنجليزية من تمثيلات المعنى الرسمي، وهياكل تمثيل الخطاب (DRSS).نستخدم نموذج تسلسل ثنائي التسلسل BI-LSTM القياسي بدلا من ذلك، والعمل بتمثيل إدخال DRS SNEARIZED، وتقييم رقائق الرقص على مستوى الأحرف ومستوى الكلمات.ن