يتطلب التواصل السلس والفعال القدرة على أداء استنتاج المناشد الكامن أو الصريح. يركز معايير التفكير في المناولة (مثل Socialiqa و Commonsenseqa) بشكل رئيسي على المهمة التمييزية المتمثلة في اختيار الإجابة الصحيحة من مجموعة من المرشحين، ولا تنطوي على توليد لغة تفاعلية كما هو الحال في الحوار. علاوة على ذلك، فإن مجموعات بيانات الحوار الحالية لا تركز صراحة على عرض المنطقي كجايت. في هذه الورقة، نقدم دراسة تجريبية للعموم في توليد استجابة الحوار. نحن أولا استخراج السيارات الحوارات العمومية من مجموعات بيانات الحوار الموجودة من خلال الاستفادة من Congalnet، الرسم البياني المعرفة للعموم. علاوة على ذلك، بناء على السياقات الاجتماعية / المواقف في Socialiqa، نجمع مجموعة بيانات حوار جديدة مع حوارات 25 كيلو بايت تهدف إلى عرض العمولة الاجتماعية في بيئة تفاعلية. نقوم بتقييم نماذج توليد الاستجابة المدربة باستخدام مجموعات البيانات هذه والعثور على النماذج المدربة على كلا من المستخرجة وبياناتنا التي تم جمعها تنتج الردود التي تظهر باستمرار المزيد من المنطقي من الأساس. أخيرا، نقترح نهج للتقييم التلقائي للعموم التي تعتمد على ميزات مشتقة من نماذج النقدية واللغة المدربة مسبقا وحوار الحوار، وتظهر ارتباطا معقولا بالتقييم البشري لجودة الردود.
Smooth and effective communication requires the ability to perform latent or explicit commonsense inference. Prior commonsense reasoning benchmarks (such as SocialIQA and CommonsenseQA) mainly focus on the discriminative task of choosing the right answer from a set of candidates, and do not involve interactive language generation as in dialogue. Moreover, existing dialogue datasets do not explicitly focus on exhibiting commonsense as a facet. In this paper, we present an empirical study of commonsense in dialogue response generation. We first auto-extract commonsensical dialogues from existing dialogue datasets by leveraging ConceptNet, a commonsense knowledge graph. Furthermore, building on social contexts/situations in SocialIQA, we collect a new dialogue dataset with 25K dialogues aimed at exhibiting social commonsense in an interactive setting. We evaluate response generation models trained using these datasets and find that models trained on both extracted and our collected data produce responses that consistently exhibit more commonsense than baselines. Finally we propose an approach for automatic evaluation of commonsense that relies on features derived from ConceptNet and pre-trained language and dialog models, and show reasonable correlation with human evaluation of responses' commonsense quality.
References used
https://aclanthology.org/
Understanding speaker's feelings and producing appropriate responses with emotion connection is a key communicative skill for empathetic dialogue systems. In this paper, we propose a simple technique called Affective Decoding for empathetic response
Although there are many studies on neural language generation (NLG), few trials are put into the real world, especially in the advertising domain. Generating ads with NLG models can help copywriters in their creation. However, few studies have adequa
Recent development in NLP shows a strong trend towards refining pre-trained models with a domain-specific dataset. This is especially the case for response generation where emotion plays an important role. However, existing empathetic datasets remain
Recent years have seen a flourishing of neural keyphrase generation (KPG) works, including the release of several large-scale datasets and a host of new models to tackle them. Model performance on KPG tasks has increased significantly with evolving d
Empathy is a complex cognitive ability based on the reasoning of others' affective states. In order to better understand others and express stronger empathy in dialogues, we argue that two issues must be tackled at the same time: (i) identifying whic