يلخص الحوار يساعد القراء على التقاط المعلومات البارزة من محادثات طويلة في الاجتماعات والمقابلات والمسلسلات التلفزيونية. ومع ذلك، فإن حوالات العالم الحقيقي تشكل تحديا كبيرا لنماذج التلخيص الحالية، حيث يتجاوز طول الحوار عادة حدود المدخلات التي تفرضها النماذج المدربة مسبقا القائمة على المحولات، والطبيعة التفاعلية للحوالات هي المعلومات ذات الصلة أكثر تعتمد على السياق وقدر موزعة من المقالات الإخبارية. في هذا العمل، نقوم بإجراء دراسة شاملة حول تلخيص الحوار الطويل من خلال التحقيق في ثلاث استراتيجيات للتعامل مع مشكلة الإدخال المطول وتحديد موقع المعلومات ذات الصلة: (1) نماذج المحولات الموسعة مثل Longformer، (2) استرداد نماذج خط أنابيب العديد من طرق استرجاع الحوار النطق، و (3) نماذج ترميز الحوار الهرمي مثل HMNet. نتائجنا التجريبية على ثلاث مجموعات بيانات حوار طويلة (QMSUM، MediaSum، Searscreen) تبين أن نماذج خط أنابيب الاسترداد - بعد ذلك، تسفر عن أفضل أداء. نوضح أيضا أنه يمكن تحسين جودة الملخص مع نموذج استرجاع أقوى وأحيث محاكاة بيانات الملخصات الخارجية المناسبة.
Dialogue summarization helps readers capture salient information from long conversations in meetings, interviews, and TV series. However, real-world dialogues pose a great challenge to current summarization models, as the dialogue length typically exceeds the input limits imposed by recent transformer-based pre-trained models, and the interactive nature of dialogues makes relevant information more context-dependent and sparsely distributed than news articles. In this work, we perform a comprehensive study on long dialogue summarization by investigating three strategies to deal with the lengthy input problem and locate relevant information: (1) extended transformer models such as Longformer, (2) retrieve-then-summarize pipeline models with several dialogue utterance retrieval methods, and (3) hierarchical dialogue encoding models such as HMNet. Our experimental results on three long dialogue datasets (QMSum, MediaSum, SummScreen) show that the retrieve-then-summarize pipeline models yield the best performance. We also demonstrate that the summary quality can be further improved with a stronger retrieval model and pretraining on proper external summarization datasets.
المراجع المستخدمة
https://aclanthology.org/
حققت أنظمة ربط الكيان (EL) نتائج مثيرة للإعجاب على المعايير القياسية بشكل أساسي بفضل التمثيلات السياقية المقدمة من نماذج اللغة المحددة مسبقا.ومع ذلك، لا تزال هذه الأنظمة تتطلب كميات ضخمة من البيانات - ملايين الأمثلة المسمى - في أفضل حالاتهم، مع أوقات
في السنوات القليلة الماضية، تم اقتراح العديد من الطرق لبناء تضمين التوطين.كان الهدف العام هو الحصول على تمثيلات جديدة تدمج المعرفة التكميلية من مختلف المدينات المدربة مسبقا مما يؤدي إلى تحسين الجودة الشاملة.ومع ذلك، تم تقييم Enterpaintings Meta-embed
أدت إدخال مذكرات الكلمات المحول المستندة إلى المحولات المدربين مسبقا إلى تحسينات كبيرة في دقة المحللين المستندة إلى الرسم البياني للأطر مثل التبعيات العالمية (UD). ومع ذلك، يختلف الأمر السابق في الأبعاد المختلفة، بما في ذلك اختيارهم لنماذج اللغة المد
إن القدرة على توليد أسئلة التوضيح I.E.، أسئلة تحدد المعلومات المفقودة المفيدة في سياق معين، مهمة في الحد من الغموض.يستخدم البشر تجربة سابقة مع سياقات مماثلة لتشكيل وجهة نظر عالمية ومقارنين السياق المعدد للتأكد من مفقود وما هو مفيد في السياق.مستوحاة م
تكتسب المحادثات التي تلخيصها عبر النهج العصبية الجر أبحث في الآونة الأخيرة، ومع ذلك، لا تزال تحديا للحصول على حلول عملية. وتشمل أمثلة مثل هذه التحديات تبادل المعلومات غير منظم في الحوارات والتفاعلات غير الرسمية بين المتحدثين والتغيرات الديناميكية للم