مع الزيادة السريعة في حجم بيانات الحوار من الحياة اليومية، هناك طلب متزايد على تلخيص الحوار. لسوء الحظ، تدريب نموذج تلخيص كبير بشكل عام بشكل عام بسبب عدم كفاية بيانات الحوار مع ملخصات مشروح. معظم الأعمال الموجودة لتلخيص حوار الموارد المنخفضة بشكل مباشر مؤمن النماذج بشكل مباشر في مجالات أخرى، على سبيل المثال، مجال الأخبار، لكنهم يهملون بشكل عام الفرق الكبير بين الحوارات والمقالات التقليدية. لسد الفجوة بين الاحتجاج بها من خارج المجال والضبط الجميل داخل المجال، في هذا العمل، نقترح نموذجا محددا متعدد المصدر لتحسين الاستفادة من البيانات الموجزة الخارجية. على وجه التحديد، نستمس في بيانات موجزة داخل المجال واسعة النطاق بشكل منفصل بدرجة أن تشفير الحوار ومكتشف الملخص. ثم يتم الاحتمية بعد ذلك نموذج فك تشفير التشفير على البيانات الموجزة خارج المجال باستخدام منتقدي العدوين، تهدف إلى تسهيل تلخيص المجال اللاإرادي. تظهر النتائج التجريبية على مجموعة من مجموعات البيانات العامة أنه مع بيانات تدريب محدودة فقط، يحقق نهجنا أداء تنافسي وتعميم جيد في سيناريوهات الحوار المختلفة.
With the rapid increase in the volume of dialogue data from daily life, there is a growing demand for dialogue summarization. Unfortunately, training a large summarization model is generally infeasible due to the inadequacy of dialogue data with annotated summaries. Most existing works for low-resource dialogue summarization directly pretrain models in other domains, e.g., the news domain, but they generally neglect the huge difference between dialogues and conventional articles. To bridge the gap between out-of-domain pretraining and in-domain fine-tuning, in this work, we propose a multi-source pretraining paradigm to better leverage the external summary data. Specifically, we exploit large-scale in-domain non-summary data to separately pretrain the dialogue encoder and the summary decoder. The combined encoder-decoder model is then pretrained on the out-of-domain summary data using adversarial critics, aiming to facilitate domain-agnostic summarization. The experimental results on two public datasets show that with only limited training data, our approach achieves competitive performance and generalizes well in different dialogue scenarios.
المراجع المستخدمة
https://aclanthology.org/
مع الوفاء المتزايد من نصوص الاجتماعات، اجتذبت ملخص الاجتماع المزيد والمزيد من الاهتمام من الباحثين. حققت طريقة التدريب المسبق غير المعروضة على أساس هيكل المحولات المبلغة مع ضبط المهام المصب الناجمة نجاحا كبيرا في مجال تلخيص النص. ومع ذلك، فإن الهيكل
تستكشف هذه الورقة تأثير استخدام التعلم المتعدد التواجد لتلخيص الجماع في سياق كورسا التدريب الصغيرة.على وجه الخصوص، نحن ندمج أربع مهام مختلفة (تلخيص استخراجي، ونمذجة اللغة، والكشف عن المفهوم، والكشف عن الصياغة على حد سواء بشكل فردي ومزيج، بهدف تعزيز ا
تعتمد نماذج التلخيص المبخرية للحديث عن الفن بشكل عام على بيانات مسامحة واسعة النطاق، مما أدنى من قدرة تعميمها على المجالات التي لا تتوفر فيها هذه البيانات. في هذه الورقة، نقدم دراسة لتكييف المجال لمهمة تلخيص الجماع عبر ست مجالات مستهدفة متنوعة في إعد
التصنيفات هي تمثيل رمزي للعلاقات الهرمية بين المصطلحات أو الكيانات. في حين أن التصنيفات مفيدة في تطبيقات واسعة، فإن تحديثها أو الحفاظ عليها يدويا كثيفة العمالة وصعبة الحجم في الممارسة العملية. تفشل الأساليب الإشرافية التقليدية لهذه المهمة التخصيب هذه
من المعروف أن ميزات كلمة مثل المعلومات اللغوية التي تشير إلى رموز المصدر التي تشير إلى رموز المصدر، لتحسين نتائج أنظمة الترجمة الآلية العصبية في بعض الإعدادات، وعادة ما تكون في البنى المتكررة. تقترح هذه الدراسة تعزيز هندسة الترجمة الآلية الحالية للدو