يعمل المصنف الموجود في مهام الحوسبة العاطفية متعددة الوسائط، مثل التعرف على العاطفة والتعرف على الشخصية، عموما خط أنابيب ذات مرحلتين من خلال أول استخراج تمثيلات ميزة لكل طريقة واحدة مع الخوارزميات المصنوعة يدويا، ثم أداء التعلم المنتهي مع الميزات المستخرجة. ومع ذلك، يتم إصلاح الميزات المستخرجة ولا يمكن ضبطها بشكل جيد على المهام المستهدفة المختلفة، والعثور على ميزة خوارزميات الاستخراج يدويا لا تعميم أو مقياس جيدا لمهام مختلفة، والتي يمكن أن تؤدي إلى الأداء دون الأمثل. في هذه الورقة، نقوم بتطوير نموذج طرف بالكامل يربط المرحلتين وتحسينها بشكل مشترك. بالإضافة إلى ذلك، نقوم بإعادة هيكلة مجموعات البيانات الحالية لتمكين التدريب الكامل للنهاية. علاوة على ذلك، لتقليل النفقات الحاسوبية النماذج المحسوبة بالنماذج الطرفية إلى النهاية، نقدم آلية اهتمامية متناثرة عبر مشروط لاستخراج الميزة. تظهر النتائج التجريبية أن طرازنا الناتج الكامل ينفج بشكل كبير يتفوق بشكل كبير النماذج الحالية للحالة القائمة على خط أنابيب الطورين. علاوة على ذلك، من خلال إضافة اهتمام متناثر عبر الوسائط، يمكن لنموذجنا الحفاظ على الأداء مع حوالي نصف حساب أقل في جزء استخراج الميزة من النموذج.
Existing works in multimodal affective computing tasks, such as emotion recognition and personality recognition, generally adopt a two-phase pipeline by first extracting feature representations for each single modality with hand crafted algorithms, and then performing end-to-end learning with extracted features. However, the extracted features are fixed and cannot be further fine-tuned on different target tasks, and manually finding feature extracting algorithms does not generalize or scale well to different tasks, which can lead to sub-optimal performance. In this paper, we develop a fully end-to-end model that connects the two phases and optimizes them jointly. In addition, we restructure the current datasets to enable the fully end-to-end training. Furthermore, to reduce the computational overhead brought by the end-to-end model, we introduce a sparse cross-modal attention mechanism for the feature extraction. Experimental results show that our fully end-to-end model significantly surpasses the current state-of-the-art models based on the two-phase pipeline. Moreover, by adding the sparse cross-modal attention, our model can maintain the performance with around half less computation in the feature extraction part of the model.
References used
https://aclanthology.org/
Due to the popularity of intelligent dialogue assistant services, speech emotion recognition has become more and more important. In the communication between humans and machines, emotion recognition and emotion analysis can enhance the interaction be
Emotion recognition in conversation has received considerable attention recently because of its practical industrial applications. Existing methods tend to overlook the immediate mutual interaction between different speakers in the speaker-utterance
Emotion recognition in multi-party conversation (ERMC) is becoming increasingly popular as an emerging research topic in natural language processing. Prior research focuses on exploring sequential information but ignores the discourse structures of c
Frame semantic parsing is a semantic analysis task based on FrameNet which has received great attention recently. The task usually involves three subtasks sequentially: (1) target identification, (2) frame classification and (3) semantic role labelin
The capability to automatically detect human stress can benefit artificial intelligent agents involved in affective computing and human-computer interaction. Stress and emotion are both human affective states, and stress has proven to have important