في هذه الورقة، نركز على مشكلة الكلمات الرئيسية ومطابقة المستندات من خلال النظر في مستويات ذات صلة مختلفة. في نظام توصيتنا، يتبع أشخاص مختلفون الكلمات الرئيسية الساخنة المختلفة باهتمام. نحتاج إلى إرفاق المستندات إلى كل كلمة رئيسية ثم توزيع المستندات على الأشخاص الذين يتبعون هذه الكلمات الرئيسية. يجب أن تحتوي المستندات المثالية على نفس الموضوع مع الكلمة الأساسية، والتي نسميها ذات أهمية تدرك الموضوع. بمعنى آخر، وثائق الأهمية ذات الصلة بالموضوع أفضل من تلك الأهمية جزئيا في هذا التطبيق. ومع ذلك، فإن المهام السابقة لا تحدد أبدا أهمية علم الموضوع بوضوح. لمعالجة هذه المشكلة، نحدد صلة ثلاثية المستوى بمهمة مطابقة الوثيقة للكلمة الرئيسية: الأهمية ذات الصلة بالموضوع، والأهمية جزئيا والأهمية. لالتقاط الأهمية بين الكلمة الرئيسية القصيرة والوثيقة في المستويات الثلاثة المذكورة أعلاه، لا ينبغي لنا الجمع بين الموضوع الكامن فقط من الوثيقة بتمثيلها العصبي العميق، ولكن أيضا التفاعلات المعقدة النموذجية بين الكلمة الرئيسية والوثيقة. تحقيقا لهذه الغاية، نقترح نموذجا متطابقا على تفاعل ثنائي مرحلتين ومطابقة النص (TITA). من حيث الموضوع - أدرك "، نقدم نموذج موضوع عصبي لتحليل موضوع المستند ثم استخدامه لمزيد من تشفير المستند. من حيث التفاعل من مرحلتين "، نقترح مراحل متتالية لنموذج التفاعلات المعقدة بين الكلمة الرئيسية والوثيقة. تكشف التجارب الواسعة أن تيتا تفوقت على خطوط الأساس الأخرى المصممة بشكل جيد وتظهر أداء ممتاز في نظام توصيتنا.
In this paper, we focus on the problem of keyword and document matching by considering different relevance levels. In our recommendation system, different people follow different hot keywords with interest. We need to attach documents to each keyword and then distribute the documents to people who follow these keywords. The ideal documents should have the same topic with the keyword, which we call topic-aware relevance. In other words, topic-aware relevance documents are better than partially-relevance ones in this application. However, previous tasks never define topic-aware relevance clearly. To tackle this problem, we define a three-level relevance in keyword-document matching task: topic-aware relevance, partially-relevance and irrelevance. To capture the relevance between the short keyword and the document at above-mentioned three levels, we should not only combine the latent topic of the document with its deep neural representation, but also model complex interactions between the keyword and the document. To this end, we propose a Two-stage Interaction and Topic-Aware text matching model (TITA). In terms of topic-aware'', we introduce neural topic model to analyze the topic of the document and then use it to further encode the document. In terms of two-stage interaction'', we propose two successive stages to model complex interactions between the keyword and the document. Extensive experiments reveal that TITA outperforms other well-designed baselines and shows excellent performance in our recommendation system.
References used
https://aclanthology.org/
Neural topic models (NTMs) apply deep neural networks to topic modelling. Despite their success, NTMs generally ignore two important aspects: (1) only document-level word count information is utilized for the training, while more fine-grained sentenc
Impressive milestones have been achieved in text matching by adopting a cross-attention mechanism to capture pertinent semantic connections between two sentence representations. However, regular cross-attention focuses on word-level links between the
In Arabic Language, diacritics are used to specify meanings as well as pronunciations. However, diacritics are often omitted from written texts, which increases the number of possible meanings and pronunciations. This leads to an ambiguous text and m
Moderation of reader comments is a significant problem for online news platforms. Here, we experiment with models for automatic moderation, using a dataset of comments from a popular Croatian newspaper. Our analysis shows that while comments that vio
The current state-of-the-art model HiAGM for hierarchical text classification has two limitations. First, it correlates each text sample with all labels in the dataset which contains irrelevant information. Second, it does not consider any statistica