يتم إنشاء ملايين علامة التجزئة على وسائل التواصل الاجتماعي كل يوم لإرشاد الرسائل المتعلقة بموضوعات مماثلة. لمساعدة الناس على العثور على الموضوعات التي يرغبون في مناقشتها، تقوم هذه الورقة بتفضيل تفضيلات Hashtaginging للمستخدم عبر التنبؤ بمدى المرجح أن ينشرها مع علامة التجزئة. يتم افتراض أنه يرتبط اهتمامات المرء في علامة التجزئة بما قالها قبل (سجل المستخدم) ووظائف المشاركات الحالية التي تقدم علامة التجزئة (سياقات Hashtag). هذه العوامل متزوجة في المساحة الدلالية العميقة التي بنيت برت مدرب مسبقا ونموذج موضوع عصبي عبر التعلم المتعدد. وبهذه الطريقة، يمكن تخصيص اهتمامات المستخدم المستفادة من الماضي لتتناسب مع علامة التصنيف المستقبلية التي تتجاوز قدرة الأساليب الموجودة على افتراض أن دلالات البحث في هاشتاج دون تغيير. علاوة على ذلك، نقترح انتباه موضوع شخصي مخصص رواية لالتقاط محتويات بارزة لتخصيص سياقات HASHTAG. تشير التجارب على مجموعة بيانات Twitter واسعة النطاق إلى أن نموذجنا يتفوق بشكل كبير على نهج توصية الحديث عن الفن دون استغلال موضوعات كامنة.
Millions of hashtags are created on social media every day to cross-refer messages concerning similar topics. To help people find the topics they want to discuss, this paper characterizes a user's hashtagging preferences via predicting how likely they will post with a hashtag. It is hypothesized that one's interests in a hashtag are related with what they said before (user history) and the existing posts present the hashtag (hashtag contexts). These factors are married in the deep semantic space built with a pre-trained BERT and a neural topic model via multitask learning. In this way, user interests learned from the past can be customized to match future hashtags, which is beyond the capability of existing methods assuming unchanged hashtag semantics. Furthermore, we propose a novel personalized topic attention to capture salient contents to personalize hashtag contexts. Experiments on a large-scale Twitter dataset show that our model significantly outperforms the state-of-the-art recommendation approach without exploiting latent topics.
References used
https://aclanthology.org/
Transformer-based pre-training techniques of text and layout have proven effective in a number of document understanding tasks. Despite this success, multimodal pre-training models suffer from very high computational and memory costs. Motivated by hu
Neural topic models (NTMs) apply deep neural networks to topic modelling. Despite their success, NTMs generally ignore two important aspects: (1) only document-level word count information is utilized for the training, while more fine-grained sentenc
Recent psychological studies indicate that individuals exhibiting suicidal ideation increasingly turn to social media rather than mental health practitioners. Personally contextualizing the buildup of such ideation is critical for accurate identifica
Unlike well-structured text, such as news reports and encyclopedia articles, dialogue content often comes from two or more interlocutors, exchanging information with each other. In such a scenario, the topic of a conversation can vary upon progressio
We propose a novel framework for predicting the factuality of reporting of news media outlets by studying the user attention cycles in their YouTube channels. In particular, we design a rich set of features derived from the temporal evolution of the