في السنوات الأخيرة، الأعمال التجارية العالمية في المناقشات عبر الإنترنت وتقاسم الرأي حول وسائل التواصل الاجتماعي مزدهرة. وبالتالي، يقترح ذلك مهمة التنبؤ بإعادة الدخول لمساعدة الناس على تتبع المناقشات التي يرغبون في الاستمرار فيها. ومع ذلك، فإن الأعمال الحالية تركز فقط على استغلال سجلات الدردشة ومعلومات السياق، وتجاهل إشارات التعلم المفيدة المحتملة بيانات المحادثة الأساسية، مثل أنماط موضوع المحادثة والمشاركة المتكررة للمستخدمين المستهدفين، والتي تساعد على فهم سلوك المستخدمين المستهدفين بشكل أفضل في المحادثات. في هذه الورقة، نقترح ثلاثة مهام مساعدة مثيرة للاهتمام وأسس بشكل جيد، وهي نمط انتشار، المستخدم المستهدف المتكرر، وتحويل التأتجل، كإشارات الإشراف ذاتيا لإعادة التنبؤ بالدخول. يتم تدريب هذه المهام الإضافية مع المهمة الرئيسية بطريقة متعددة المهام. تظهر النتائج التجريبية على مجموعة بيانات يتم جمعها حديثا من Twitter و Reddit أن أسلوبنا تتفوق على الحالة السابقة من الفنون السابقة مع عدد أقل من المعلمات والتقارب الأسرع. تظهر تجارب وتحليل مستفيضة فعالية نماذجنا المقترحة وأشير أيضا إلى بعض الأفكار الرئيسية في تصميم المهام ذات الإشراف على الذات.
In recent years, world business in online discussions and opinion sharing on social media is booming. Re-entry prediction task is thus proposed to help people keep track of the discussions which they wish to continue. Nevertheless, existing works only focus on exploiting chatting history and context information, and ignore the potential useful learning signals underlying conversation data, such as conversation thread patterns and repeated engagement of target users, which help better understand the behavior of target users in conversations. In this paper, we propose three interesting and well-founded auxiliary tasks, namely, Spread Pattern, Repeated Target user, and Turn Authorship, as the self-supervised signals for re-entry prediction. These auxiliary tasks are trained together with the main task in a multi-task manner. Experimental results on two datasets newly collected from Twitter and Reddit show that our method outperforms the previous state-of-the-arts with fewer parameters and faster convergence. Extensive experiments and analysis show the effectiveness of our proposed models and also point out some key ideas in designing self-supervised tasks.
References used
https://aclanthology.org/
Online platforms and communities establish their own norms that govern what behavior is acceptable within the community. Substantial effort in NLP has focused on identifying unacceptable behaviors and, recently, on forecasting them before they occur.
Recent multilingual pre-trained language models have achieved remarkable zero-shot performance, where the model is only finetuned on one source language and directly evaluated on target languages. In this work, we propose a self-learning framework th
Adaptive Machine Translation purports to dynamically include user feedback to improve translation quality. In a post-editing scenario, user corrections of machine translation output are thus continuously incorporated into translation models, reducing
Adapting word order from one language to another is a key problem in cross-lingual structured prediction. Current sentence encoders (e.g., RNN, Transformer with position embeddings) are usually word order sensitive. Even with uniform word form repres
To alleviate human efforts from obtaining large-scale annotations, Semi-Supervised Relation Extraction methods aim to leverage unlabeled data in addition to learning from limited samples. Existing self-training methods suffer from the gradual drift p