يتوقع التنبؤ بالكلام التالي في الحوار على ترميز نص مدخلات المستخدمين لتوليد استجابة مناسبة وذات صلة في النهج التي يحركها البيانات. على الرغم من أن الجودة الدلالية والمنظمات الأساسية للغة الناتجة يتم تقييمها، إلا أنه غالبا ما لا، لا يتم تقييم التمثيل المشفوع للإدخال. نظرا لأن تمثيل التشفير ضروري للتنبؤ بالاستجابة المناسبة، فإن تقييم تمثيل التشفير يمثل مشكلة تحديا ولكنها مهمة. في هذا العمل، نعرض أن تقييم النص الذي تم إنشاؤه من خلال المقاييس البشرية أو التلقائية لا يكفي لتقييم سلامة فهم لغة نماذج الحوار، وإلى هذه الغاية، اقتراح مجموعة من مهام التحقيق لتقييم تمثيل التشفير لتشفيات لغة مختلفة شائعة المستخدمة في طرازات الحوار. من التجارب، نلاحظ أن بعض مهام التحقيق هي أسهل وبعضها أصعب حتى يتم تعلم هياكل النموذج المعقدة. ومن خلال التجارب التي نلاحظها أن البندسة المعتمدة من RNN لها أداء أقل على المقاييس التلقائية على جيل النص من طراز المحول ولكن أداء أفضل من طراز المحول في مهام التحقيق التي تشير إلى أن RNNs قد تحافظ على معلومات المهمة أفضل من المحولات.
Predicting the next utterance in dialogue is contingent on encoding of users' input text to generate appropriate and relevant response in data-driven approaches. Although the semantic and syntactic quality of the language generated is evaluated, more often than not, the encoded representation of input is not evaluated. As the representation of the encoder is essential for predicting the appropriate response, evaluation of encoder representation is a challenging yet important problem. In this work, we showcase evaluating the text generated through human or automatic metrics is not sufficient to appropriately evaluate soundness of the language understanding of dialogue models and, to that end, propose a set of probe tasks to evaluate encoder representation of different language encoders commonly used in dialogue models. From experiments, we observe that some of the probe tasks are easier and some are harder for even sophisticated model architectures to learn. And, through experiments we observe that RNN based architectures have lower performance on automatic metrics on text generation than transformer model but perform better than the transformer model on the probe tasks indicating that RNNs might preserve task information better than the Transformers.
References used
https://aclanthology.org/
Neural models trained for next utterance generation in dialogue task learn to mimic the n-gram sequences in the training set with training objectives like negative log-likelihood (NLL) or cross-entropy. Such commonly used training objectives do not f
Encoder-decoder models have been commonly used for many tasks such as machine translation and response generation. As previous research reported, these models suffer from generating redundant repetition. In this research, we propose a new mechanism f
Dialogue-based relation extraction (RE) aims to extract relation(s) between two arguments that appear in a dialogue. Because dialogues have the characteristics of high personal pronoun occurrences and low information density, and since most relationa
The success of large-scale contextual language models has attracted great interest in probing what is encoded in their representations. In this work, we consider a new question: to what extent contextual representations of concrete nouns are aligned
In transfer learning, it is imperative to achieve strong alignment between a pre-trained model and a downstream task. Prior work has done this by proposing task-specific pre-training objectives, which sacrifices the inherent scalability of the transf