يقدم البشر ردود مناسبة لا يستند فقط إلى كلام الحوار السابق ولكن أيضا على المعرفة الخلفية الضمنية مثل الحس السليم. على الرغم من أن نماذج توليد الاستجابة العصبية تنتج ردود تشبه الإنسان، إلا أنها في الغالب من طرفا ولا تولد أسباب وسيطة بين تاريخ الحوار والردود. يهدف هذا العمل إلى الدراسة إذا وكيف يمكننا تدريب نموذج RG الذي يتحدث عن نفسه لتوليد معرفة ضمنية قبل تقديم ردود. نحن نحقق مزيد من التحقيق في هذه النماذج عندما تولد معرفة خلفية ضمنية وعندما لا يكون ذلك ضروريا. تظهر النتائج التجريبية مقارنة بالنماذج التي تولد الردود مباشرة بالنظر إلى تاريخ الحوار، وتنتج نماذج الحديث الذاتي استجابات أفضل بجودة وفقا للتقييم البشري على الحكم النحوي والتماسك والعمل. والنماذج التي يتم تدريبها على تحديد متى يتحدث التحدث الذاتي إلى تحسين جودة الاستجابة. تبين تحليل المعرفة الضمنية الناتجة أن الطرز تستخدم معظمها المعرفة بشكل مناسب في الردود.
Humans make appropriate responses not only based on previous dialogue utterances but also on implicit background knowledge such as common sense. Although neural response generation models seem to produce human-like responses, they are mostly end-to-end and not generating intermediate grounds between a dialogue history and responses. This work aims to study if and how we can train an RG model that talks with itself to generate implicit knowledge before making responses. We further investigate can such models identify when to generate implicit background knowledge and when it is not necessary. Experimental results show that compared with models that directly generate responses given a dialogue history, self-talk models produce better-quality responses according to human evaluation on grammaticality, coherence, and engagingness. And models that are trained to identify when to self-talk further improves the response quality. Analysis on generated implicit knowledge shows that models mostly use the knowledge appropriately in the responses.
References used
https://aclanthology.org/
Evaluating the quality of responses generated by open-domain conversation systems is a challenging task. This is partly because there can be multiple appropriate responses to a given dialogue history. Reference-based metrics that rely on comparisons
Keyphrases, that concisely summarize the high-level topics discussed in a document, can be categorized into present keyphrase which explicitly appears in the source text and absent keyphrase which does not match any contiguous subsequence but is high
Personalized response generation is essential for more human-like conversations. However, how to model user personalization information with no explicit user persona descriptions or demographics still remains under-investigated. To tackle the data sp
Motivated by suggested question generation in conversational news recommendation systems, we propose a model for generating question-answer pairs (QA pairs) with self-contained, summary-centric questions and length-constrained, article-summarizing an
We propose to tackle data-to-text generation tasks by directly splicing together retrieved segments of text from neighbor'' source-target pairs. Unlike recent work that conditions on retrieved neighbors but generates text token-by-token, left-to-righ