نحن نعتبر مشكلة تلخيص المبشير الذي تركز على الموضوع، حيث يكون الهدف هو إنشاء ملخص إغراق يركز على موضوع معين، عبارة واحدة أو عدة كلمات.نحن نفترض أن مهمة توليد ملخصات تركز على موضوع يمكن تحسينها عن طريق إظهار النموذج ما يجب ألا تركز عليه.نقدم نهج تعليمي عميق لتعزيز التلخصات المبخرية التي تركز على الموضوع، تدربت على المكافآت مع خط الأساس من الأمثلة السلبية الجديدة.نحن نحدد المدخلات في هذه المشكلة كنص المصدر الذي سبقه الموضوع.نحن نتكيف مع بيانات CNN-Daily Mail و Summarization New York Times Farmarization لهذه المهمة.ثم نوضح بعد ذلك من خلال تجارب في المكافآت الحالية أن استخدام خط الأساس للمثال السلبي يمكن أن يتفوق على استخدام خط الأساس الحرج الذاتي، في روج، برث، مقاييس التقييم البشري.
We consider the problem of topic-focused abstractive summarization, where the goal is to generate an abstractive summary focused on a particular topic, a phrase of one or multiple words. We hypothesize that the task of generating topic-focused summaries can be improved by showing the model what it must not focus on. We introduce a deep reinforcement learning approach to topic-focused abstractive summarization, trained on rewards with a novel negative example baseline. We define the input in this problem as the source text preceded by the topic. We adapt the CNN-Daily Mail and New York Times summarization datasets for this task. We then show through experiments on existing rewards that the use of a negative example baseline can outperform the use of a self-critical baseline, in Rouge, BERTScore, and human evaluation metrics.
المراجع المستخدمة
https://aclanthology.org/
مع الوفاء المتزايد من نصوص الاجتماعات، اجتذبت ملخص الاجتماع المزيد والمزيد من الاهتمام من الباحثين. حققت طريقة التدريب المسبق غير المعروضة على أساس هيكل المحولات المبلغة مع ضبط المهام المصب الناجمة نجاحا كبيرا في مجال تلخيص النص. ومع ذلك، فإن الهيكل
في هذه الورقة، نركز على تحسين جودة الملخص الذي تم إنشاؤه بواسطة أنظمة تلخيص الحوار المبشور العصبي.على الرغم من أن طرازات اللغة المدربة مسبقا تولد نتائج رائعة واعدة، إلا أنها لا تزال تحديا لتلخيص محادثة المشاركين المتعددين منذ أن تتضمن الملخص وصفا للو
على عكس النص المنظم جيدا، مثل التقارير الإخبارية ومقالات الموسوعة، غالبا ما يأتي محتوى الحوار من محاورين أو أكثر، وتبادل المعلومات مع بعضها البعض. في مثل هذا السيناريو، يمكن أن يختلف موضوع المحادثة عند التقدم والمعلومات الأساسية لموضوع معين في كثير م
في معظم الحالات، فإن الافتقار إلى Corpora الموازي يجعل من المستحيل مباشرة على تدريب النماذج الخاضعة للإشراف لمهمة نقل نمط النص.في هذه الورقة، نستكشف خوارزميات التدريب التي تقوم بدلا من ذلك تحسين وظائف المكافآت التي تنظر صراحة في جوانب مختلفة من النوا
التعاطف هو قدرات معرفية معقدة تستند إلى منطق الدول العاطفية الأخرى. من أجل فهم الآخرين بشكل أفضل والتعبير عن التعاطف الأقوى في الحوارات، نجادل بأننا يجب معالجة قضيتين في الوقت نفسه: (1) تحديد أي كلمة هي سبب عاطفة الآخر من كلامه و (2) تعكس تلك كلمات م