ترغب بنشر مسار تعليمي؟ اضغط هنا

عدد قليل من العاطفة التعرف على المحادثة مع شبكات النماذج النموذجية المتسلسلة

Few-Shot Emotion Recognition in Conversation with Sequential Prototypical Networks

198   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

تم إجراء عدة دراسات حديثة حول التفاعلات البشرية الدينية على المحادثات دون أهداف تجارية محددة. ومع ذلك، قد تستفيد العديد من الشركات من الدراسات المخصصة لبيئات أكثر دقة مثل خدمات ما بعد البيع أو استطلاعات رضا العملاء. في هذا العمل، نضع أنفسنا في نطاق خدمة عملاء الدردشة الحية التي نريد اكتشاف العواطف وتطورها في تدفق المحادثة. يؤدي هذا السياق إلى تحديات متعددة تتراوح من استغلال مجموعات البيانات المحظورة والصغيرة والغلبية غير المستمرة لإيجاد وتكيف مع طرق هذا السياق. نحن نتعامل مع هذه التحديات باستخدام عدد قليل من التعلم أثناء صنع الفرضية التي يمكن أن تخدم تصنيف المشاعر المحادثة لغات مختلفة وتسميات متفرق. نحن نساهم باقتراح تباين من الشبكات النموذجية للحصول على تسلسل وضع العلامات في المحادثة التي نسمينا protoseq. نحن نختبر هذه الطريقة على رقمين مع لغات مختلفة: المحادثات اليومية في محادثات الدردشة الإنجليزية وخدمة العملاء في الفرنسية. عند تطبيقها على تصنيف العاطفة في المحادثات، أثبتت طريقنا أنها تنافسية حتى مقارنة بأخرى أخرى.

المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

تلقى الاعتراف بالمحادثة في المحادثة اهتماما كبيرا مؤخرا بسبب تطبيقاتها الصناعية العملية.تميل الأساليب الحالية إلى التغاضي عن التفاعل المتبادل الفوري بين مكبرات الصوت المختلفة في مستوى الكلام المتكلم، أو قم بتطبيق RNN المتكلم المرغوب عن الكلام من مختل ف المتحدثين.نقترح عملة معدنية، نموذج تفاعلي محادثة لتخفيف هذه المشكلة عن طريق تطبيق التفاعل المتبادل الحكومي في سياقات التاريخ.بالإضافة إلى ذلك، نقدم وحدة تفاعلية عالمية مكدسة لالتقاط تمثيل السياق والاعتماد بين الاعتمادات بطريقة هرمية.لتحسين المتانة والتعميم أثناء التدريب، نقوم بإنشاء أمثلة خصومة من خلال تطبيق الاضطرابات البسيطة بشأن مدخلات ميزة متعددة الوسائط، كشف النقاب عن فوائد الأمثلة العداء للكشف عن المشاعر.ينص النموذج المقترح بشكل تجريبي النتائج الحالية على النتائج الحالية على مجموعة بيانات IEMOCAP Benchmark.
تم اقتراح التعلم التلوي مؤخرا لتعلم النماذج والخوارزميات التي يمكن أن تعميمها من حفنة من الأمثلة.ومع ذلك، فإن تطبيقات التنبؤ الهيكلية والمهام النصية تشكل تحديات لخوارزميات التعلم التلوي.في هذه الورقة، نحن نطبق اثنين من خوارزميات التعلم التلوي، والشبك ات النموذجية والزواحف الزواحف، إلى عدد قليل من الرصاص التعرف على الكيان (NER)، بما في ذلك طريقة لإدماج نموذج اللغة قبل التدريب والحقول العشوائية الشرطية (CRF).نقترح خطة توليد المهام لتحويل مجموعات بيانات NER الكلاسيكية إلى إعداد القليل من الرصاص، لكل من التدريب والتقييم.باستخدام ثلاث مجموعات بيانات عامة، نظهر أن خوارزميات التعلم التلوي هذه تفوق خطاس بخبراء ذو صقل معقول.بالإضافة إلى ذلك، نقترح مزيجا جديدا من الشبكات النموذجية والزواحف.
ينشأ التعلم القليل من الرصاص في سيناريوهات عملية مهمة، كما هو الحال عندما يحتاج نظام فهم اللغة الطبيعية إلى تعلم ملصقات دلالية جديدة للنشاط الناشئ والموارد النادر. في هذه الورقة، نستكشف الأساليب القائمة على استرجاع مهام تعبئة النوايا وملء الفتحات في إعدادات قليلة. تتكبد الأساليب المستندة إلى الاسترداد تنبؤات بناء على الأمثلة المسمى في مؤشر الاسترجاع مماثلة للمدخلات، وبالتالي يمكن أن تتكيف مع مجالات جديدة ببساطة عن طريق تغيير الفهرس دون الحاجة إلى إعادة تدريب النموذج. ومع ذلك، فمن غير تافهة لتطبيق هذه الأساليب على المهام مع مساحة تسمية معقدة مثل ملء الفتحة. تحقيقا لهذه الغاية، نقترح طريقة استرجاع مدفوعة المستوى التي تتعلم تمثيلات محكسية مماثلة للتمثيل مع نفس التسمية عبر هدف Softmax Batch-Softmax الرواية. في وقت الاستدلال، نستخدم ملصقات المسافات المستردة لبناء الهيكل النهائي بأعلى درجة التجميع. تتفوق طريقةنا على الأنظمة السابقة في مختلف إعدادات القليل من الطوائم على معايير Clinc and Senips.
في هذه الورقة، ندرس استخدام النماذج اللغوية المدربة مسبقا لتمكين توليد لغة البندقية القليلة (NLG) في أنظمة الحوار الموجهة نحو المهام. نقدم نظاما يتكون من التدريب الذاتي التكراري وإطار قالب صغير قابل للتوسيع يتم تخصيص بيانات الإدخال المهيكلة في نص شبه طبيعي للاستفادة الكاملة من نماذج اللغة المدربة مسبقا. نحن نقارن تمثيلات Var Ious لإدخال ونماذج NLG وإخراجها وإظهار أن تحويل المدخلات والمخرجات لتكون مشابهة لما شابه نموذج اللغة من قبل أثناء التدريب المسبق يحسن أداء الطراز القليل من الطرازات. نظظ أن Mod-Els العصبي يمكن تدريبها على أساس عدد قليل من الأمثلة المشروحة مع توفير الدقة العالية، وخفضت إلى حد كبير متطلبات الموارد الخاصة بوقوف مجال جديد أو لغة. هذا مستوى كفاءة البيانات يزيل الحاجة إلى جمع بيانات الحشد مما أدى إلى جودة أعلى جودة مشروح من قبل اللغويين الخبراء. بالإضافة إلى ذلك، ستحسن عمليات صيانة النموذج والتصحيح في هذا الإعداد القليل من الرصاص. أخيرا، نستكشف تقطير واستخدام نظام التخزين المؤقت لإرضاء متطلبات الكمون لأنظمة العالم الحقيقي.
تعتمد معالجة اللغة الطبيعية (NLP) بشكل متزايد على الأنظمة العامة المناسبة التي تحتاج إلى التعامل مع العديد من الظواهر اللغوية المختلفة والفروق الدقيقة. على سبيل المثال، يتعين على نظام الاستدلال باللغة الطبيعية (NLI) أن يتعرف على المعنويات، والتعامل م ع الأرقام، وإجراء حلول، وما إلى ذلك. لا تزال حلولنا للمشاكل المعقدة بعيدة عن الكمال، لذلك من المهم إنشاء أنظمة يمكن أن تتعلم تصحيح الأخطاء بسرعة، تدريجيا، ومع القليل من البيانات التدريبية. في هذا العمل، نقترح مهمة التعلم القليلة المستمرة (CFL)، حيث يتم الطعن للنظام بظاهرة صعبة وطلب منهم أن يتعلموا تصحيح الأخطاء مع أمثلة تدريبية فقط (10 إلى 15). تحقيقا لهذه الغاية، نقوم أولا بإنشاء معايير بناء على البيانات المشروحة مسبقا: DetaSets NLI (Anli and Snli) ومجموعات بيانات تحليل المشاعر (IMDB). بعد ذلك، نقدم خطوط أساس مختلفة من النماذج المتنوعة (على سبيل المثال، أخطاقات علم الذاكرة والشبكات النموذجية) ومقارنتها في التعلم القليل من الطلقات والكم من إعدادات التعلم القليلة المستمرة. إن مساهماتنا هي في إنشاء بروتوكول جناح وتقييم معيار لاستمرار التعلم القليل من الرصاص حول مهام تصنيف النص، وعمل العديد من الملاحظات المثيرة للاهتمام حول سلوك الأساليب القائمة على التشابه. نأمل أن يعمل عملنا كنقطة انطلاق مفيدة للعمل في المستقبل على هذا الموضوع الهام.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا