تحليل المدونات الصغيرة حيث ننشر ما نقوم بتمكيننا من أداء تطبيقات مختلفة مثل تحليل الاتجاه الاجتماعي وتوصية الكيان. لتتبع الاتجاهات الناشئة في مجموعة متنوعة من المجالات، نريد تصنيف المعلومات عن الكيانات الناشئة (على سبيل المثال، الصورة الرمزية 2) في منشورات المدونات الصغيرة وفقا لأنواعها (على سبيل المثال، فيلم). وبالتالي، فإننا نقدم مهمة جديدة للكتابة كيان تقوم بتعيين نوعا غرامة على كل كيان ناشئ عند إجراء انفجار من المشاركات التي تحتوي على هذا الكيان لأول مرة في المدونات الصغيرة. التحدي هو إجراء الكتابة من منشورات المدونات الصغيرة الصاخبة دون الاعتماد على المعرفة السابقة للكيان المستهدف. لمعالجة هذه المهمة، نبني مجموعات بيانات Twitter واسعة النطاق للغة الإنجليزية واليابانية باستخدام الإشراف البعيد الحساسة للوقت. ثم نقترح نموذج الكتابة العصبي المعياري الذي لا ينفدي فقط الكيان وسياقاته ولكن أيضا معلومات المعتوه في مشاركات متعددة. لكتابة الكيانات الناشئة "الكتاني" تعني لغة البرمجة الناشئة ولعبة الألواح الكلاسيكية)، والسياقات الكلاسيكية صاخبة، ونطير محدد سياق يجد سياقات ذات صلة للكيان الهدف. تؤكد التجارب على مجموعات البيانات Twitter فعالية نموذج الكتابة لدينا ومنح السياق.
Analyzing microblogs where we post what we experience enables us to perform various applications such as social-trend analysis and entity recommendation. To track emerging trends in a variety of areas, we want to categorize information on emerging entities (e.g., Avatar 2) in microblog posts according to their types (e.g., Film). We thus introduce a new entity typing task that assigns a fine-grained type to each emerging entity when a burst of posts containing that entity is first observed in a microblog. The challenge is to perform typing from noisy microblog posts without relying on prior knowledge of the target entity. To tackle this task, we build large-scale Twitter datasets for English and Japanese using time-sensitive distant supervision. We then propose a modular neural typing model that encodes not only the entity and its contexts but also meta information in multiple posts. To type homographic' emerging entities (e.g., Go' means an emerging programming language and a classic board game), which contexts are noisy, we devise a context selector that finds related contexts of the target entity. Experiments on the Twitter datasets confirm the effectiveness of our typing model and the context selector.
References used
https://aclanthology.org/
Conventional entity typing approaches are based on independent classification paradigms, which make them difficult to recognize inter-dependent, long-tailed and fine-grained entity types. In this paper, we argue that the implicitly entailed extrinsic
Existing work on Fine-grained Entity Typing (FET) typically trains automatic models on the datasets obtained by using Knowledge Bases (KB) as distant supervision. However, the reliance on KB means this training setting can be hampered by the lack of
The training of NLP models often requires large amounts of labelled training data, which makes it difficult to expand existing models to new languages. While zero-shot cross-lingual transfer relies on multilingual word embeddings to apply a model tra
Broad-coverage meaning representations in NLP mostly focus on explicitly expressed content. More importantly, the scarcity of datasets annotating diverse implicit roles limits empirical studies into their linguistic nuances. For example, in the web r
Although pre-training models have achieved great success in dialogue generation, their performance drops dramatically when the input contains an entity that does not appear in pre-training and fine-tuning datasets (unseen entity). To address this iss