في تطبيقات خدمة العملاء الخاصة بالمجال على الإنترنت، تكافح العديد من الشركات بنشر نماذج NLP المتقدمة بنجاح، بسبب توفر وضوضاء محدودة في مجموعات البيانات الخاصة بهم.في حين أن الأبحاث المسبقة أظهرت إمكانية ترحيل النماذج الكبيرة المسبقة للمجال المفتوحة للمهام الخاصة بالمهام الخاصة بالمجال، فإن استراتيجيات التدريب المناسبة (قبل) لم يتم تقييمها بشدة في إعدادات خدمة العملاء في وسائل التواصل الاجتماعي، خاصة في ظل ظروف متعددة اللغات.نحن نتعامل مع هذه الفجوة من خلال جمع وجعة إعلامية اجتماعية متعددة اللغات تحتوي على محادثات خدمة العملاء (تغريدات 865K)، ومقارنة خطوط أنابيب مختلفة من الأساليب المحددة والفصل، وتطبيقها على 5 مهام مختلفة مختلفة.نوضح أنه يلاحظ نموذج محول عام متعدد اللغات على مجموعة بياناتنا داخل المجال، قبل التصميم في مهام نهاية محددة، يعزز الأداء باستمرار، خاصة في الإعدادات غير الإنجليزية.
In online domain-specific customer service applications, many companies struggle to deploy advanced NLP models successfully, due to the limited availability of and noise in their datasets. While prior research demonstrated the potential of migrating large open-domain pretrained models for domain-specific tasks, the appropriate (pre)training strategies have not yet been rigorously evaluated in such social media customer service settings, especially under multilingual conditions. We address this gap by collecting a multilingual social media corpus containing customer service conversations (865k tweets), comparing various pipelines of pretraining and finetuning approaches, applying them on 5 different end tasks. We show that pretraining a generic multilingual transformer model on our in-domain dataset, before finetuning on specific end tasks, consistently boosts performance, especially in non-English settings.
المراجع المستخدمة
https://aclanthology.org/
في سيناريو دردشة خدمة العملاء النموذجي، اتصل العملاء بمركز دعم لطلب المساعدة أو رفع الشكاوى، وحاول الوكلاء البشريون حل المشكلات.في معظم الحالات، يطلب من الوكلاء في نهاية المحادثة كتابة ملخص قصير يؤكد على المشكلة والحل المقترح، عادة من أجل فائدة الوكل
أظهرت نماذج محولات محول مسبقا واسعة النطاق أداء حديثة (SOTA) في مجموعة متنوعة من مهام NLP.في الوقت الحاضر، تتوفر العديد من النماذج المحددة مسبقا في النكهات النموذجية المختلفة ولغات مختلفة، ويمكن تكييفها بسهولة مع المهمة المصب الأولى.ومع ذلك، فإن عدد
لفتت تلخيص الحوار اهتماما كبيرا مؤخرا. خاصة في مجال خدمة العملاء، يمكن للوكلاء استخدام ملخصات الحوار للمساعدة في زيادة أعمالهم من خلال معرفة قضايا العملاء بسرعة وتقدم الخدمة. تتطلب هذه التطبيقات ملخصات لاحتواء منظور مكبر صوت واحد ولديك هيكل تدفق موضو
نحن تصف نهجنا مباشرة إلى الأمام للمهام 5 و 6 من 2021 وسائل التواصل الاجتماعي Min - المهام المشتركة (SMM4H) المهام المشتركة.يعتمد نظامنا على DILLBERT الدقيقة على كل مهمة، وكذلك أولا ضبط النموذج على المهمة الأخرى.في هذه الورقة، نتكشف بالإضافة إلى ذلك م
عند ضبط النماذج المحددة مسبقا للتصنيف، يستخدم الباحثون إما رأس نموذج عام أو موجه خاص بالتنبؤ.جادل مؤيدو المطالبات بأن المطالبات توفر طريقة لحقن إرشادات خاصة بالمهام، وهي مفيدة في أنظمة البيانات المنخفضة.نهدف إلى تقدير هذه الفائدة من خلال اختبار صارم