نماذج العصبية المدربة لتوليد الكلام المقبل في مهمة الحوار تعلم تحاكي تسلسلات N-Gram في التدريب المحدد بأهداف التدريب مثل احتمال السجل السلبي (NLL) أو Cross-Enterpy. هذه الأهداف التدريبية الشائعة الاستخدام لا تعزز تحقيق ردود بديلة إلى سياق. ولكن، فإن آثار التقليل من هدف تدريب بديل يعزز نموذجا لتوليد استجابة بديلة وسجله على التشابه الدلالي لم يتم دراسة جيد. نحن نفترض أن نموذج توليد اللغة يمكن أن يتحسن على تنوعه من خلال التعلم لتوليد نص بديل أثناء التدريب وتقليل الخسارة الدلالية كهدف إضافي. نستكشف هذه الفكرة على مجموعتي بيانات مختلفة الحجم في مهمة توليد الكلام التالي في الحوارات الموجهة نحو الأهداف. نجعل ملاحظتين (1) تقلل من تنوع تحسن من الهدف الدلالي في الردود في مجموعة البيانات الأصغر (الإطارات) ولكن فقط جيدة مثل تقليل NLL في مجموعة البيانات الأكبر (MultiWoz) (2) أكثر فائدة كهدف فقدان الدلالي من كهيئة لمضادات الرمز المميز.