منذ فترة طويلة انتهت التقييم التلقائي الموثوق لأنظمة الحوار بموجب بيئة تفاعلية. تحتاج بيئة مثالية لتقييم أنظمة الحوار، المعروفة أيضا باسم اختبار Turing، إلى إشراك التفاعل البشري، وعادة ما تكون غير متناول تجارب واسعة النطاق. على الرغم من أن الباحثين قد حاولوا استخدام مقاييس مهام توليد اللغة (على سبيل المثال، الحيرة، بلو) أو بعض طرق التعزيز القائمة على الطراز (مثل تقييم التشغيل الذاتي) للتقييم التلقائي، إلا أن هذه الطرق تظهر فقط ارتباط ضعيف للغاية مع التقييم البشري الفعلي في التمرين. لكسر هذه الفجوة، نقترح إطارا جديدا يدعى لغز لتقدير درجات التقييم البشرية بناء على التقدم الأخير للتقييم خارج السياسات في التعلم التعزيز. يتطلب Enigma فقط حفنة من بيانات الخبرة التي تم جمعها مسبقا، وبالتالي لا تنطوي على تفاعل بشري مع السياسة المستهدفة أثناء التقييم، مما يجعل التقييمات التلقائية الممكنة. والأهم من ذلك أن Enigma هو خال من النموذج والأذرع لسياسات السلوك لجمع بيانات الخبرة، مما يخفف بشكل كبير الصعوبات التقنية في بيئات الحوار المعقدة النمذجة والسلوكيات البشرية. تظهر تجاربنا أن لغز تتفوق بشكل كبير على الأساليب الحالية من حيث الارتباط مع درجات التقييم البشري.
Reliable automatic evaluation of dialogue systems under an interactive environment has long been overdue. An ideal environment for evaluating dialog systems, also known as the Turing test, needs to involve human interaction, which is usually not affordable for large-scale experiments. Though researchers have attempted to use metrics for language generation tasks (e.g., perplexity, BLEU) or some model-based reinforcement learning methods (e.g., self-play evaluation) for automatic evaluation, these methods only show very weak correlation with the actual human evaluation in practice. To bridge such a gap, we propose a new framework named ENIGMA for estimating human evaluation scores based on recent advances of off-policy evaluation in reinforcement learning. ENIGMA only requires a handful of pre-collected experience data, and therefore does not involve human interaction with the target policy during the evaluation, making automatic evaluations feasible. More importantly, ENIGMA is model-free and agnostic to the behavior policies for collecting the experience data, which significantly alleviates the technical difficulties of modeling complex dialogue environments and human behaviors. Our experiments show that ENIGMA significantly outperforms existing methods in terms of correlation with human evaluation scores.
المراجع المستخدمة
https://aclanthology.org/
في السنوات الأخيرة، اكتسبت الترجمة التلقائية للكلام في الكلام والكلام إلى النص زخما بفضل التقدم في الذكاء الاصطناعي، وخاصة في مجالات التعرف على الكلام والترجمة الآلية. يتم اختبار جودة هذه التطبيقات بشكل شائع مع المقاييس التلقائية، مثل بلو، في المقام
الأنظمة الآلية التي تتفاوض مع البشر لديها تطبيقات واسعة في علم التربية والاتحاد الدولي للتنصيص. لتعزيز تطوير أنظمة التفاوض العملية، نقدم كازينو: جثة رواية تزيد عن ألف حوارات مفاوضات باللغة الإنجليزية. يأخذ المشاركون دور جيران المخيمات والتفاوض على حز
سجل محاضر سجل أي موضوع ناقش، والقرارات التي تم التوصل إليها والإجراءات المتخذة في الاجتماع.لا يمكن المبالغة في أهمية التلقائي التلقائي.في هذه الورقة، نقدم نهج نافذة منزلقة إلى الجيل التلقائي من محضر الاجتماعات.يهدف إلى معالجة القضايا المتعلقة بطبيعة
في هذه الورقة، نقول أن أنظمة الحوار قادرة على شرح قراراتها بنشاط يمكنها الاستفادة من المنطق المعني.نحن نحفز سبب هذه الاستراتيجية المناسبة ودمجها ضمن إطار مدير الحوار المؤخري الخاص بنا على أساس المنطق الخطي.على وجه الخصوص، يتيح ذلك نظام الحوار تقديم إ
مربع الحوار هو كتلة لبناء أساسية لتفاعلات اللغة البشرية البشرية.يحتوي على كلمات متعددة الأحزاب المستخدمة لنقل المعلومات من طرف إلى آخر بطريقة ديناميكية ومتطورة.إن القدرة على مقارنة الحوار هي مفيدة في العديد من حالات استخدام العالم الحقيقي، مثل تحليلا