بدأت أنظمة التلخيص المبخر مسبقا مدربة مسبقا في تحقيق أداء موثوق، ولكن عائق رئيسي أمام استخدامها في الممارسة العملية هو ميلهم لإخراج الملخصات التي لا تؤيد المدخلات وتحتوي على أخطاء واقعية. في حين تم استكشاف عدد من مجموعات البيانات المشروحة والنماذج الإحصائية لتقييم التوظيف، إلا أنه لم يتم استكشاف صورة واضحة للأخطاء الأكثر أهمية لاستهداف أو عندما تنجح التقنيات الحالية والفشل. نستكشف كل من مصادر البيانات الاصطناعية والإنسانية ذات العلامات بين النماذج التدريبية لتحديد الأخطاء الواقعية في تلخيص، ودراسة الواقعية على مستوى الكلمة والاعتماد على مستوى الجملة. ملاحظاتنا هي ثلاثة أضعاف. أولا، تختلف الأخطاء الواقعية المعروضة بشكل كبير عبر مجموعات البيانات، والمجموعات التدريبية التي تستخدمها عادة من الأخطاء الاصطناعية البسيطة لا تعكس الأخطاء التي تم إجراؤها على مجموعات بيانات الجماعة مثل XSUM. ثانيا، توفر البيانات ذات العلامات البشرية ذات العلامات النووية ذات التوضيحية الدقيقة إشارة تدريب أكثر فعالية من التعليقات التوضيحية على مستوى الجملة أو البيانات الاصطناعية. أخيرا، نظير على أن أفضل نموذج الكشف عن الواقعين لدينا يتيح تدريب المزيد من نماذج تلخيص XSUM أكثر واقعية من خلال السماح لنا بتحديد الرموز المميزة غير الواقعية في بيانات التدريب.
Recent pre-trained abstractive summarization systems have started to achieve credible performance, but a major barrier to their use in practice is their propensity to output summaries that are not faithful to the input and that contain factual errors. While a number of annotated datasets and statistical models for assessing factuality have been explored, there is no clear picture of what errors are most important to target or where current techniques are succeeding and failing. We explore both synthetic and human-labeled data sources for training models to identify factual errors in summarization, and study factuality at the word-, dependency-, and sentence-level. Our observations are threefold. First, exhibited factual errors differ significantly across datasets, and commonly-used training sets of simple synthetic errors do not reflect errors made on abstractive datasets like XSum. Second, human-labeled data with fine-grained annotations provides a more effective training signal than sentence-level annotations or synthetic data. Finally, we show that our best factuality detection model enables training of more factual XSum summarization models by allowing us to identify non-factual tokens in the training data.
References used
https://aclanthology.org/
Modern summarization models generate highly fluent but often factually unreliable outputs. This motivated a surge of metrics attempting to measure the factuality of automatically generated summaries. Due to the lack of common benchmarks, these metric
In recent years several corpora have been developed for vision and language tasks. With this paper, we intend to start a discussion on the annotation of referential phenomena in situated dialogue. We argue that there is still significant room for cor
We study generating abstractive summaries that are faithful and factually consistent with the given articles. A novel contrastive learning formulation is presented, which leverages both reference summaries, as positive training data, and automaticall
Factual inconsistencies existed in the output of abstractive summarization models with original documents are frequently presented. Fact consistency assessment requires the reasoning capability to find subtle clues to identify whether a model-generat
Dialogue summarization has drawn much attention recently. Especially in the customer service domain, agents could use dialogue summaries to help boost their works by quickly knowing customer's issues and service progress. These applications require s