ترغب بنشر مسار تعليمي؟ اضغط هنا

أظهرت نماذج محولات محول مسبقا واسعة النطاق أداء حديثة (SOTA) في مجموعة متنوعة من مهام NLP.في الوقت الحاضر، تتوفر العديد من النماذج المحددة مسبقا في النكهات النموذجية المختلفة ولغات مختلفة، ويمكن تكييفها بسهولة مع المهمة المصب الأولى.ومع ذلك، فإن عدد محدود فقط من النماذج متاحة لمهام الحوار، وخاصة مهام الحوار الموجهة نحو الأهداف.بالإضافة إلى ذلك، يتم تدريب النماذج المحددة مسبقا على لغة المجال العامة، مما يخلق عدم تطابقا بين لغة المحترفين ومجال المصب المصب.في هذه المساهمة، نقدم CS-Bert، نموذج BERT مسبقا على ملايين الحوارات في مجال خدمة العملاء.نقوم بتقييم CS-Bert على العديد من مهام حوار خدمة العملاء في العديد من مهام خدمة العملاء، وإظهار أن محالقنا في المجال لدينا مفيد مقارنة بالنماذج الأخرى المحددة مسبقا في كل من التجارب الصفري بالرصاص وكذلك في التجارب الصفرية، خاصة في إعداد بيانات منخفض الموارد.
تتحول نماذج المحادثة واسعة النطاق إلى الاستفادة من المعرفة الخارجية لتحسين الدقة الواقعية في توليد الاستجابة.بالنظر إلى عدم التعليق على المعرفة الخارجية لعوريا الحوار واسعة النطاق، من المستحسن معرفة اختيار المعرفة وتوليد الاستجابة بطريقة غير منشأة.في هذه الورقة، نقترح أفلاطون كاج (توليد المعرفة المعزز)، ونهج تعليمي غير مخطط له لنمذجة المحادثة المحفوظة على المعرفة الطرفية.لكل سياق حوار، يتم اختيار عناصر المعرفة ذات الصلة من الأعلى وبعد ذلك في توليد الاستجابة المدرجة في المعرفة.يتم تحسين مكونين اختيار المعرفة وتوليد الاستجابة بشكل مشترك وفعال تحت هدف متوازن.النتائج التجريبية على اثنين من مجموعات البيانات المتاحة للجمهور التحقق من تفوق أفلاطون كاج.
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا