نقدم طريقة لتوليد ملخصات مقارنة تسليط الضوء على أوجه التشابه والتناقضات في وثائق المدخلات. التحدي الرئيسي في إنشاء هذه الملخصات هو عدم وجود بيانات تدريبية متوازية كبيرة مطلوبة لتدريب أنظمة التلخيص النموذجية. تحقيقا لهذه الغاية، نقدم نهج جيل مختلفي مستوحى من أنظمة المفاهيم التقليدية إلى النص. لتمكين المقارنة الدقيقة بين المصادر المختلفة، يتعلم النموذج أولا استخراج العلاقات ذات الصلة من وثائق المدخلات. يستخدم مكون تخطيط المحتوى المشغلين المحددين لتجميع هذه العلاقات بعد تحديد مجموعة فرعية للإدماج في ملخص. مكون إدراك السطح Lexicalizes هذه المعلومات باستخدام نموذج لغة تسقط النص. من خلال اختيار محتوى النمذجة بشكل منفصل وإدراكه، يمكننا تدريبها بشكل فعال مع التعليقات التوضيحية المحدودة. نفذنا واختبرنا النموذج في مجال التغذية والصحة - تنتشر بالتناسيل. مقارنة بالأساليب التقليدية، يؤدي إطارنا إلى تلخيص أكثر مخلصة وثيقة ومهمة الحساسة للتجميع - بينما يجري بطلاقة بنفس القدر.
We present a method for generating comparative summaries that highlight similarities and contradictions in input documents. The key challenge in creating such summaries is the lack of large parallel training data required for training typical summarization systems. To this end, we introduce a hybrid generation approach inspired by traditional concept-to-text systems. To enable accurate comparison between different sources, the model first learns to extract pertinent relations from input documents. The content planning component uses deterministic operators to aggregate these relations after identifying a subset for inclusion into a summary. The surface realization component lexicalizes this information using a text-infilling language model. By separately modeling content selection and realization, we can effectively train them with limited annotations. We implemented and tested the model in the domain of nutrition and health -- rife with inconsistencies. Compared to conventional methods, our framework leads to more faithful, relevant and aggregation-sensitive summarization -- while being equally fluent.
References used
https://aclanthology.org/
A critical point of multi-document summarization (MDS) is to learn the relations among various documents. In this paper, we propose a novel abstractive MDS model, in which we represent multiple documents as a heterogeneous graph, taking semantic node
Allowing users to interact with multi-document summarizers is a promising direction towards improving and customizing summary results. Different ideas for interactive summarization have been proposed in previous work but these solutions are highly di
Information overload has been one of the challenges regarding information from the Internet. It is not a matter of information access, instead, the focus had shifted towards the quality of the retrieved data. Particularly in the news domain, multiple
Recent research using pre-trained language models for multi-document summarization task lacks deep investigation of potential erroneous cases and their possible application on other languages. In this work, we apply a pre-trained language model (BART
This paper presents an efficient graph-enhanced approach to multi-document summarization (MDS) with an encoder-decoder Transformer model. This model is based on recent advances in pre-training both encoder and decoder on very large text data (Lewis e