يستخدم البشر منطق المنطقي (CSR) ضمنيا لإنتاج ردود طبيعية ومتماسكة في المحادثات. تهدف إلى إغلاق الفجوة بين نماذج جيل الاستجابة الحالية (RG) قدرات الاتصالات البشرية، نريد أن نفهم لماذا تستجيب نماذج RG أثناء قيامهم بتحقيق فهم نموذج RG للمنطق المنطقي الذي يثير الاستجابات المناسبة. نحن نقوم بإضفاء الطابع الرسمي على المشكلة عن طريق تأطير العمولة كمتغير كامن في مهمة RG واستخدام توضيحات للاستجابات كأشكال نصية من العمليات النصية. نجمع 6K تفسيرات مشروحة تبرر الردود من أربعة مجموعات من مجموعات بيانات الحوار ونسأل البشر للتحقق منها واقتراح اثنين من إعدادات التحقيق لتقييم قدرات CSR نماذج RG. تظهر النتائج التحقيق أن النماذج تفشل في التقاط العلاقات المنطقية بين تفسيرات والردود المنطقية والضبط بشكل جيد على البيانات داخل المجال والأحجام النموذجية المتزايدة لا تؤدي إلى فهم المسؤولية الاجتماعية للشركات ل RG. نأمل أن تقوم دراستنا بحفز المزيد من الأبحاث في جعل نماذج RG محاكاة عملية التفكير البشرية في السعي لتحقيق اتصال ناعم للإنسان العربي.
Humans use commonsense reasoning (CSR) implicitly to produce natural and coherent responses in conversations. Aiming to close the gap between current response generation (RG) models and human communication abilities, we want to understand why RG models respond as they do by probing RG model's understanding of commonsense reasoning that elicits proper responses. We formalize the problem by framing commonsense as a latent variable in the RG task and using explanations for responses as textual form of commonsense. We collect 6k annotated explanations justifying responses from four dialogue datasets and ask humans to verify them and propose two probing settings to evaluate RG models' CSR capabilities. Probing results show that models fail to capture the logical relations between commonsense explanations and responses and fine-tuning on in-domain data and increasing model sizes do not lead to understanding of CSR for RG. We hope our study motivates more research in making RG models emulate the human reasoning process in pursuit of smooth human-AI communication.
المراجع المستخدمة
https://aclanthology.org/
بالنسبة لجهاز كمبيوتر يتفاعل بشكل طبيعي مع إنسان، يجب أن يكون يشبه الإنسان.في هذه الورقة، نقترح نموذج توليد الاستجابة العصبي مع التعلم متعدد المهام للجيل والتصنيف، مع التركيز على العاطفة.يتم تدريب نموذجنا على أساس بارت (لويس وآخرون.، 2020)، وهو نموذج
إن استنتاج المنطقي لفهم وشرح اللغة البشرية هي مشكلة بحثية أساسية في معالجة اللغة الطبيعية. يطرح المشرف على المحادثات الإنسانية تحديا كبيرا لأنه يتطلب التفاهم السياقي والتخطيط والاستدلال والعديد من جوانب المنطق بما في ذلك التفكير السببية والزمان والعم
حققت النماذج التراجعية التلقائية واسعة النطاق نجاحا كبيرا في توليد استجابة الحوار، بمساعدة طبقات المحولات. ومع ذلك، فإن هذه النماذج لا تتعلم مساحة كامنة تمثيلية لتوزيع الجملة، مما يجعل من الصعب التحكم في الجيل. لقد حاولت الأعمال الحديثة على تعلم تمثي
في توليد استجابة الحوار مفتوح المجال، يمكن أن يستمر سياق الحوار مع ردود متنوعة، وينبغي أن تتخذ طرازات الحوار علاقات واحدة إلى كثيرة.في هذا العمل، نقوم أولا بتحليل الهدف التدريبي لنماذج الحوار من وجهة نظر اختلاف Kullback-Leibler (KLD) وإظهار أن الفجوة
تمت دراسة AcoNecoders Varitional كهدوء واعد لنموذج تعيينات واحدة إلى العديد من السياق للاستجابة في توليد استجابة الدردشة.ومع ذلك، غالبا ما تفشل في تعلم التعيينات المناسبة.أحد أسباب هذا الفشل هو التناقض بين الاستجابة وأخذ عينات متغير كامنة من توزيع تق