في هذه الورقة، نقترح إطار جيل عصبي قابل للتحكم يمكن أن توجه بمرونة تلخيص الحوار مع تخطيط الكيانات المسماة الشخصية. يتم تعديل التسلسلات الشرطية لتحديد أنواع المعلومات أو منظور التركيز عند تشكيل ملخصات لمعالجة المشكلة الخاضعة للحدود في مهام التلخصات. يدعم هذا الإطار نوعين من حالات الاستخدام: (1) منظور شامل، وهو حالة غرض لأغراض عامة مع عدم تحديد تفضيل المستخدم، بالنظر إلى نقاط موجزة من جميع محطات المحادثة والأشخاص المذكورين؛ (2) منظور التركيز، ضع الملخص بناء على كيان شخصي محدد من قبل المستخدم، والتي يمكن أن تكون واحدة من المحاورين أو أحد الأشخاص المذكورين في المحادثة. أثناء التدريب، استغلنا تخطيط حدوثها للكيانات المسماة الشخصية ومعلومات العناية الأساسية لتحسين الاتساق الزمني وتقليل الهلوسة في الجيل العصبي. تظهر النتائج التجريبية أن إطار عملنا المقترح يولد ملخصات بطلاقة ومتسقة في الواقع بموجب ضوابط التخطيط المختلفة باستخدام المقاييس الموضوعية والتقييمات البشرية.
In this paper, we propose a controllable neural generation framework that can flexibly guide dialogue summarization with personal named entity planning. The conditional sequences are modulated to decide what types of information or what perspective to focus on when forming summaries to tackle the under-constrained problem in summarization tasks. This framework supports two types of use cases: (1) Comprehensive Perspective, which is a general-purpose case with no user-preference specified, considering summary points from all conversational interlocutors and all mentioned persons; (2) Focus Perspective, positioning the summary based on a user-specified personal named entity, which could be one of the interlocutors or one of the persons mentioned in the conversation. During training, we exploit occurrence planning of personal named entities and coreference information to improve temporal coherence and to minimize hallucination in neural generation. Experimental results show that our proposed framework generates fluent and factually consistent summaries under various planning controls using both objective metrics and human evaluations.
References used
https://aclanthology.org/
Pretraining-based neural network models have demonstrated state-of-the-art (SOTA) performances on natural language processing (NLP) tasks. The most frequently used sentence representation for neural-based NLP methods is a sequence of subwords that is
Recent work on opinion summarization produces general summaries based on a set of input reviews and the popularity of opinions expressed in them. In this paper, we propose an approach that allows the generation of customized summaries based on aspect
Text Simplification improves the readability of sentences through several rewriting transformations, such as lexical paraphrasing, deletion, and splitting. Current simplification systems are predominantly sequence-to-sequence models that are trained
Abstract We study controllable text summarization, which allows users to gain control on a particular attribute (e.g., length limit) of the generated summaries. In this work, we propose a novel training framework based on Constrained Markov Decision
In this paper, we present NEREL, a Russian dataset for named entity recognition and relation extraction. NEREL is significantly larger than existing Russian datasets: to date it contains 56K annotated named entities and 39K annotated relations. Its i