يوفر الإعلان السياقي للمعلنين الفرصة لاستهداف السياق الأكثر صلة بإعلاناتهم. يجعل مجموعة متنوعة كبيرة من الموضوعات المحتملة تحديا للغاية لجمع وثائق التدريب لبناء نموذج تصنيف إشراف أو يؤلف قواعد مكتوبة للخبراء في نظام تصنيف قائم على القواعد. علاوة على ذلك، في التصنيف الفائق الحبيبات، غالبا ما تتداخل فئات مختلفة أو تعايشها، مما يجعل من الصعب تصنيفها بدقة. في هذا العمل، نقترح Wiki2CAT، وهي طريقة لمعالجة تصنيف نصي كبير الحجم من خلال النقر على الرسم البياني للفئة Wikipedia. يتم تعيين الفئات في تصنيف IAB أولا إلى فئة العقد في الرسم البياني. ثم يتم نشر الملصق عبر الرسم البياني للحصول على قائمة بمستندات Wikipedia المسمى للحث على نصوص النصوص. تعد الطريقة مثالية لمشاكل التصنيف واسعة النطاق لأنها لا تتطلب أي مستند يدويا أو قواعد يدويا أو كلمات أساسية. يتم قياس الطريقة المقترحة مع مختلف خطوط الأساس القائمة على التعلم والكلمات الرئيسية وتجسد أداء تنافسي على مجموعات البيانات المتوفرة للجمهور ومجموعة بيانات جديدة تحتوي على أكثر من 300 فئة واحدة من الفئات الجميلة.
Contextual advertising provides advertisers with the opportunity to target the context which is most relevant to their ads. The large variety of potential topics makes it very challenging to collect training documents to build a supervised classification model or compose expert-written rules in a rule-based classification system. Besides, in fine-grained classification, different categories often overlap or co-occur, making it harder to classify accurately. In this work, we propose wiki2cat, a method to tackle large-scaled fine-grained text classification by tapping on the Wikipedia category graph. The categories in the IAB taxonomy are first mapped to category nodes in the graph. Then the label is propagated across the graph to obtain a list of labeled Wikipedia documents to induce text classifiers. The method is ideal for large-scale classification problems since it does not require any manually-labeled document or hand-curated rules or keywords. The proposed method is benchmarked with various learning-based and keyword-based baselines and yields competitive performance on publicly available datasets and a new dataset containing more than 300 fine-grained categories.
References used
https://aclanthology.org/
We present the ongoing NorLM initiative to support the creation and use of very large contextualised language models for Norwegian (and in principle other Nordic languages), including a ready-to-use software environment, as well as an experience repo
We study the impact of using rich and diverse textual descriptions of classes for zero-shot learning (ZSL) on ImageNet. We create a new dataset ImageNet-Wiki that matches each ImageNet class to its corresponding Wikipedia article. We show that merely
This paper illustrates our approach to the shared task on large-scale multilingual machine translation in the sixth conference on machine translation (WMT-21). In this work, we aim to build a single multilingual translation system with a hypothesis t
We use dialogue act recognition (DAR) to investigate how well BERT represents utterances in dialogue, and how fine-tuning and large-scale pre-training contribute to its performance. We find that while both the standard BERT pre-training and pretraini
This paper describes TenTrans large-scale multilingual machine translation system for WMT 2021. We participate in the Small Track 2 in five South East Asian languages, thirty directions: Javanese, Indonesian, Malay, Tagalog, Tamil, English. We mainly