على الرغم من نجاح أنظمة الحوار العصبي في تحقيق أداء عال في مجلس الإدارة، لا يمكنهم تلبية متطلبات المستخدمين في الممارسة العملية، بسبب ضعف مهارات المنطق. السبب الأساسي هو أن معظم نماذج الحوار العصبي تلتقط فقط المعلومات النحوية والدلية، ولكنها تفشل في نموذج الاتساق المنطقي بين محفوظات الحوار والاستجابة الناتجة. في الآونة الأخيرة، تم اقتراح مهمة حوار جديدة متعددة الدوران، لتسهيل أبحاث التفكير الحوار. ومع ذلك، هذه المهمة صعبة، لأن هناك اختلافات طفيفة فقط بين الاستجابة غير المنطقية وتاريخ الحوار. كيفية حل هذا التحدي فعال لا يزال يستحق الاستكشاف. تقترح هذه الورقة نموذج مقارنة غرامة (FCM) لمعالجة هذه المشكلة. مستوحاة من سلوك الإنسان في فهم القراءة، يقترح تركيز آلية المقارنة على الاختلافات الجميلة في تمثيل كل مرشح استجابة. على وجه التحديد، يتم مقارنة كل تمثيل مرشح بالسجل بأكمله للحصول على تمثيل تناسق التاريخ. علاوة على ذلك، تعتبر إشارات الاتساق بين كل مرشح وتاريخ مكبر الصوت في قيادة نموذج يفضل مرشحا متسقا منطقيا مع منطق تاريخ المتكلم. أخيرا، يتم توظيف تمثيلات الاتساق أعلاه لإخراج قائمة التصنيفات من ردود المرشحين لتفويض الحوار متعدد الدوران. النتائج التجريبية على مجموعة بيانات الحوار العامة تظهر أن طريقتنا تحصل على درجات أعلى تصنيف من النماذج الأساسية.
Despite the success of neural dialogue systems in achieving high performance on the leader-board, they cannot meet users' requirements in practice, due to their poor reasoning skills. The underlying reason is that most neural dialogue models only capture the syntactic and semantic information, but fail to model the logical consistency between the dialogue history and the generated response. Recently, a new multi-turn dialogue reasoning task has been proposed, to facilitate dialogue reasoning research. However, this task is challenging, because there are only slight differences between the illogical response and the dialogue history. How to effectively solve this challenge is still worth exploring. This paper proposes a Fine-grained Comparison Model (FCM) to tackle this problem. Inspired by human's behavior in reading comprehension, a comparison mechanism is proposed to focus on the fine-grained differences in the representation of each response candidate. Specifically, each candidate representation is compared with the whole history to obtain a history consistency representation. Furthermore, the consistency signals between each candidate and the speaker's own history are considered to drive a model prefer a candidate that is logically consistent with the speaker's history logic. Finally, the above consistency representations are employed to output a ranking list of the candidate responses for multi-turn dialogue reasoning. Experimental results on two public dialogue datasets show that our method obtains higher ranking scores than the baseline models.
References used
https://aclanthology.org/
An intelligent dialogue system in a multi-turn setting should not only generate the responses which are of good quality, but it should also generate the responses which can lead to long-term success of the dialogue. Although, the current approaches i
Broad-coverage meaning representations in NLP mostly focus on explicitly expressed content. More importantly, the scarcity of datasets annotating diverse implicit roles limits empirical studies into their linguistic nuances. For example, in the web r
Conventional entity typing approaches are based on independent classification paradigms, which make them difficult to recognize inter-dependent, long-tailed and fine-grained entity types. In this paper, we argue that the implicitly entailed extrinsic
Multi-turn response selection models have recently shown comparable performance to humans in several benchmark datasets. However, in the real environment, these models often have weaknesses, such as making incorrect predictions based heavily on super
Knowledge graphs are essential for numerous downstream natural language processing applications, but are typically incomplete with many facts missing. This results in research efforts on multi-hop reasoning task, which can be formulated as a search p