مع الزيادة السريعة في حجم بيانات الحوار من الحياة اليومية، هناك طلب متزايد على تلخيص الحوار. لسوء الحظ، تدريب نموذج تلخيص كبير بشكل عام بشكل عام بسبب عدم كفاية بيانات الحوار مع ملخصات مشروح. معظم الأعمال الموجودة لتلخيص حوار الموارد المنخفضة بشكل مباشر مؤمن النماذج بشكل مباشر في مجالات أخرى، على سبيل المثال، مجال الأخبار، لكنهم يهملون بشكل عام الفرق الكبير بين الحوارات والمقالات التقليدية. لسد الفجوة بين الاحتجاج بها من خارج المجال والضبط الجميل داخل المجال، في هذا العمل، نقترح نموذجا محددا متعدد المصدر لتحسين الاستفادة من البيانات الموجزة الخارجية. على وجه التحديد، نستمس في بيانات موجزة داخل المجال واسعة النطاق بشكل منفصل بدرجة أن تشفير الحوار ومكتشف الملخص. ثم يتم الاحتمية بعد ذلك نموذج فك تشفير التشفير على البيانات الموجزة خارج المجال باستخدام منتقدي العدوين، تهدف إلى تسهيل تلخيص المجال اللاإرادي. تظهر النتائج التجريبية على مجموعة من مجموعات البيانات العامة أنه مع بيانات تدريب محدودة فقط، يحقق نهجنا أداء تنافسي وتعميم جيد في سيناريوهات الحوار المختلفة.
With the rapid increase in the volume of dialogue data from daily life, there is a growing demand for dialogue summarization. Unfortunately, training a large summarization model is generally infeasible due to the inadequacy of dialogue data with annotated summaries. Most existing works for low-resource dialogue summarization directly pretrain models in other domains, e.g., the news domain, but they generally neglect the huge difference between dialogues and conventional articles. To bridge the gap between out-of-domain pretraining and in-domain fine-tuning, in this work, we propose a multi-source pretraining paradigm to better leverage the external summary data. Specifically, we exploit large-scale in-domain non-summary data to separately pretrain the dialogue encoder and the summary decoder. The combined encoder-decoder model is then pretrained on the out-of-domain summary data using adversarial critics, aiming to facilitate domain-agnostic summarization. The experimental results on two public datasets show that with only limited training data, our approach achieves competitive performance and generalizes well in different dialogue scenarios.
References used
https://aclanthology.org/
With the increasing abundance of meeting transcripts, meeting summary has attracted more and more attention from researchers. The unsupervised pre-training method based on transformer structure combined with fine-tuning of downstream tasks has achiev
This paper explores the effect of using multitask learning for abstractive summarization in the context of small training corpora. In particular, we incorporate four different tasks (extractive summarization, language modeling, concept detection, and
State-of-the-art abstractive summarization models generally rely on extensive labeled data, which lowers their generalization ability on domains where such data are not available. In this paper, we present a study of domain adaptation for the abstrac
Taxonomies are symbolic representations of hierarchical relationships between terms or entities. While taxonomies are useful in broad applications, manually updating or maintaining them is labor-intensive and difficult to scale in practice. Conventio
Introducing factors, that is to say, word features such as linguistic information referring to the source tokens, is known to improve the results of neural machine translation systems in certain settings, typically in recurrent architectures. This st