يحتوي الحوار البشري على مفاهيم متطورة، ومكبرات الصوت تربط بشكل طبيعي مفاهيم متعددة لإثبات استجابة.ومع ذلك، فإن طرازات الحوار الحالية مع إطار SEQ2SEQ تفتقر إلى القدرة على إدارة مفهوم المفهوم بفعالية ويمكن أن تعد بالكاد مفاهيم متعددة للردود بطريقة فك التشفير المتسلسلة.لتسهيل حوار قابل للتحكم ومتماسك، في هذا العمل، نركض نموذجا غير مرشد من المفاهيم (CG-NAR) لتوليد الحوار مفتوح المجال.يشتمل النموذج المقترح على وحدة تخطيط متعددة المفاهيم يتعلم تحديد مفاهيم متعددة مرتبطة من الرسم البياني للمفهوم ومحول الإدراج المخصص يؤدي جيل غير توجيهي من المفاهيم إلى إكمال استجابة.تظهر النتائج التجريبية على مجموعة بيانات عامة أن CG-NAR يمكن أن ينتج استجابات متنوعة ومتماسكة، مما يتفوق على خطوط خطوط خطوط أساسية في كل من التقييمات التلقائية والإنسانية مع سرعة الاستدلال بشكل كبير.
Human dialogue contains evolving concepts, and speakers naturally associate multiple concepts to compose a response. However, current dialogue models with the seq2seq framework lack the ability to effectively manage concept transitions and can hardly introduce multiple concepts to responses in a sequential decoding manner. To facilitate a controllable and coherent dialogue, in this work, we devise a concept-guided non-autoregressive model (CG-nAR) for open-domain dialogue generation. The proposed model comprises a multi-concept planning module that learns to identify multiple associated concepts from a concept graph and a customized Insertion Transformer that performs concept-guided non-autoregressive generation to complete a response. The experimental results on two public datasets show that CG-nAR can produce diverse and coherent responses, outperforming state-of-the-art baselines in both automatic and human evaluations with substantially faster inference speed.
References used
https://aclanthology.org/
Research on open-domain dialogue systems that allow free topics is challenging in the field of natural language processing (NLP). The performance of the dialogue system has been improved recently by the method utilizing dialogue-related knowledge; ho
Despite achieving remarkable performance, previous knowledge-enhanced works usually only use a single-source homogeneous knowledge base of limited knowledge coverage. Thus, they often degenerate into traditional methods because not all dialogues can
Transformer-based pre-trained language models boost the performance of open-domain dialogue systems. Prior works leverage Transformer-based pre-trained language models to generate texts with desired attributes in two general approaches: (1) gradient-
Incorporating external knowledge sources effectively in conversations is a longstanding problem in open-domain dialogue research. The existing literature on open-domain knowledge selection is limited and makes certain brittle assumptions on knowledge
Recent work in open-domain conversational agents has demonstrated that significant improvements in humanness and user preference can be achieved via massive scaling in both pre-training data and model size (Adiwardana et al., 2020; Roller et al., 202