غالبا ما يتطلب جيل النص الشرطي القيود المعجمية، أي الكلمات التي يجب أو لا ينبغي إدراجها في نص الإخراج. في حين أن الوصفة المهيمنة لجيل النظام الشرطي كانت نماذج لغوية متماثلة على نطاق واسع يتم تصويرها على بيانات التدريب الخاصة بمهام المهام، فإن مثل هذه النماذج لا تتعلم اتباع القيود الأساسية بشكل موثوق، حتى عند الإشراف على كميات كبيرة من الأمثلة الخاصة بمهام المهام وبعد نقترح فك التشفير العصبي، خوارزمية بسيطة ولكنها فعالة تمكن نماذج اللغة العصبية - تحت إشراف أو لا - لتوليد نص بطلاقة مع مرضية القيود المعقدة المعقدة. نهجنا قوي بعد كفاءة. يتعامل مع أي مجموعة من القيود المعجمية المعبرة تحت المنطق المسند، في حين أن وقت التشغيل مقاربها يعادل البحث عن شعاع التقليدية. تظهر النتائج التجريبية على أربعة معايير أن فك التشفير العصبي تتفوق على النهج السابقة، بما في ذلك الخوارزميات التي تتعامل مع مجموعة فرعية من قيودنا. علاوة على ذلك، نجد أن النماذج غير الخاضعة للكشف عن فك التشفير العصبي في كثير من الأحيان تفوق النماذج الخاضعة للإشراف مع فك التشفير التقليدي، حتى عندما تستند الأخير إلى شبكات أكبر بكثير. تشير نتائجنا إلى حد الشبكات العصبية واسعة النطاق لتوليد القابل للتحكم بالقلق ووعد خوارزميات وقت الاستقدمية.
Conditional text generation often requires lexical constraints, i.e., which words should or shouldn't be included in the output text. While the dominant recipe for conditional text generation has been large-scale pretrained language models that are finetuned on the task-specific training data, such models do not learn to follow the underlying constraints reliably, even when supervised with large amounts of task-specific examples. We propose NeuroLogic Decoding, a simple yet effective algorithm that enables neural language models -- supervised or not -- to generate fluent text while satisfying complex lexical constraints. Our approach is powerful yet efficient. It handles any set of lexical constraints that is expressible under predicate logic, while its asymptotic runtime is equivalent to conventional beam search. Empirical results on four benchmarks show that NeuroLogic Decoding outperforms previous approaches, including algorithms that handle a subset of our constraints. Moreover, we find that unsupervised models with NeuroLogic Decoding often outperform supervised models with conventional decoding, even when the latter is based on considerably larger networks. Our results suggest the limit of large-scale neural networks for fine-grained controllable generation and the promise of inference-time algorithms.
References used
https://aclanthology.org/
Narrative generation is an open-ended NLP task in which a model generates a story given a prompt. The task is similar to neural response generation for chatbots; however, innovations in response generation are often not applied to narrative generatio
Knowledge graphs (KG) have become increasingly important to endow modern recommender systems with the ability to generate traceable reasoning paths to explain the recommendation process. However, prior research rarely considers the faithfulness of th
The shift to neural models in Referring Expression Generation (REG) has enabled more natural set-ups, but at the cost of interpretability. We argue that integrating pragmatic reasoning into the inference of context-agnostic generation models could re
We propose a shared task on training instance selection for few-shot neural text generation. Large-scale pretrained language models have led to dramatic improvements in few-shot text generation. Nonetheless, almost all previous work simply applies ra
Most current neural machine translation models adopt a monotonic decoding order of either left-to-right or right-to-left. In this work, we propose a novel method that breaks up the limitation of these decoding orders, called Smart-Start decoding. Mor