مع الوفاء المتزايد من نصوص الاجتماعات، اجتذبت ملخص الاجتماع المزيد والمزيد من الاهتمام من الباحثين. حققت طريقة التدريب المسبق غير المعروضة على أساس هيكل المحولات المبلغة مع ضبط المهام المصب الناجمة نجاحا كبيرا في مجال تلخيص النص. ومع ذلك، فإن الهيكل الدلالي وأسلوب حقول الاجتماع يختلف تماما عن مقالات. في هذا العمل، نقترح شبكة فك ترميز ترميز ترميز هيرسلجية ذات مهام مسبقة مهام متعددة. على وجه التحديد، نحن نخفي الجمل الرئيسية في تشفير مستوى الكلمات وتوليدها في وحدة فك الترميز. علاوة على ذلك، نقع بشكل عشوائي بعض محاذاة الدور في نص الإدخال وإجبار النموذج على استعادة علامات الدور الأصلية لإكمال المحاذاة. بالإضافة إلى ذلك، نقدم آلية تجزئة موضوعا لمواصلة تحسين جودة الملخصات التي تم إنشاؤها. تظهر النتائج التجريبية أن طرازنا متفوق على الأساليب السابقة في مجموعات بيانات ملخص الاجتماع AMI و ICSI.
With the increasing abundance of meeting transcripts, meeting summary has attracted more and more attention from researchers. The unsupervised pre-training method based on transformer structure combined with fine-tuning of downstream tasks has achieved great success in the field of text summarization. However, the semantic structure and style of meeting transcripts are quite different from that of articles. In this work, we propose a hierarchical transformer encoder-decoder network with multi-task pre-training. Specifically, we mask key sentences at the word-level encoder and generate them at the decoder. Besides, we randomly mask some of the role alignments in the input text and force the model to recover the original role tags to complete the alignments. In addition, we introduce a topic segmentation mechanism to further improve the quality of the generated summaries. The experimental results show that our model is superior to the previous methods in meeting summary datasets AMI and ICSI.
المراجع المستخدمة
https://aclanthology.org/
أظهرت نماذج واسعة النطاق على نطاق واسع عروضا قوية على العديد من توليد اللغة الطبيعية وفهم المعايير.ومع ذلك، فإن إدخال العمولة فيها لتوليد نص أكثر واقعية يظل تحديا.مستوحاة من العمل السابق على جيل المعرفة المنطقي ومنطق العموم التوليد، نقدم طريقتين لإضا
غالبا ما تكون معالجة اللغات الطبيعية (NLP) هي العمود الفقري لأنظمة اليوم لتفاعلات المستخدم واسترجاع المعلومات وغيرها. تعتمد العديد من تطبيقات NLP هذه على تمثيلات متخصصة متخصصة (E.G. Adgeddings Word، نماذج الموضوع) التي تحسن القدرة على السبب في العلاق
على عكس النص المنظم جيدا، مثل التقارير الإخبارية ومقالات الموسوعة، غالبا ما يأتي محتوى الحوار من محاورين أو أكثر، وتبادل المعلومات مع بعضها البعض. في مثل هذا السيناريو، يمكن أن يختلف موضوع المحادثة عند التقدم والمعلومات الأساسية لموضوع معين في كثير م
نحن نعتبر مشكلة تلخيص المبشير الذي تركز على الموضوع، حيث يكون الهدف هو إنشاء ملخص إغراق يركز على موضوع معين، عبارة واحدة أو عدة كلمات.نحن نفترض أن مهمة توليد ملخصات تركز على موضوع يمكن تحسينها عن طريق إظهار النموذج ما يجب ألا تركز عليه.نقدم نهج تعليم
مع الزيادة السريعة في حجم بيانات الحوار من الحياة اليومية، هناك طلب متزايد على تلخيص الحوار. لسوء الحظ، تدريب نموذج تلخيص كبير بشكل عام بشكل عام بسبب عدم كفاية بيانات الحوار مع ملخصات مشروح. معظم الأعمال الموجودة لتلخيص حوار الموارد المنخفضة بشكل مبا