نهج تحديد استعارة الحديثة النظر أساسا في ميزات النص السياقية في غضون جملة أو إدخال ميزات لغوية خارجية إلى النموذج. لكنهم عادة ما يتجاهلون المعلومات الإضافية التي يمكن أن توفرها البيانات، مثل معلومات الاستعارة السياقية ومعلومات الخطاب الأوسع نطاقا. في هذه الورقة، نقترح نموذجا تم تزويده بتمثيل سياقي هرمي لاستخراج مزيد من المعلومات من كل من مستوى الجملة ومستوى الخطاب. على مستوى الجملة، نستفيد من معلومات الاستعارة من الكلمات التي تبادل الكلمة المستهدفة في الجملة لتعزيز قدرة المنطق على نموذجنا عبر تمثيل محسن محسن على الملصقات. عند مستوى الخطاب، يتم اعتماد شبكة الذاكرة العالمية التي تدركها لتعلم التبعية بعيدة المدى بين نفس الكلمات داخل خطاب. أخيرا، يجمع نموذجنا بين التمثيلات التي تم الحصول عليها من هذين الجزأين. تظهر نتائج التجربة على مهمتين لمجموعة بيانات VUA أن طرازنا يتفوق على كل طريقة أخرى لا تستخدم أي معرفة خارجية أيضا باستثناء ما يحتوي نموذج اللغة المدربة مسبقا عليه.
Recent metaphor identification approaches mainly consider the contextual text features within a sentence or introduce external linguistic features to the model. But they usually ignore the extra information that the data can provide, such as the contextual metaphor information and broader discourse information. In this paper, we propose a model augmented with hierarchical contextualized representation to extract more information from both sentence-level and discourse-level. At the sentence level, we leverage the metaphor information of words that except the target word in the sentence to strengthen the reasoning ability of our model via a novel label-enhanced contextualized representation. At the discourse level, the position-aware global memory network is adopted to learn long-range dependency among the same words within a discourse. Finally, our model combines the representations obtained from these two parts. The experiment results on two tasks of the VUA dataset show that our model outperforms every other state-of-the-art method that also does not use any external knowledge except what the pre-trained language model contains.
References used
https://aclanthology.org/
Recent work on entity coreference resolution (CR) follows current trends in Deep Learning applied to embeddings and relatively simple task-related features. SOTA models do not make use of hierarchical representations of discourse structure. In this w
Existing works on information extraction (IE) have mainly solved the four main tasks separately (entity mention recognition, relation extraction, event trigger detection, and argument extraction), thus failing to benefit from inter-dependencies betwe
The use of attention mechanisms in deep learning approaches has become popular in natural language processing due to its outstanding performance. The use of these mechanisms allows one managing the importance of the elements of a sequence in accordan
Short text classification is a fundamental task in natural language processing. It is hard due to the lack of context information and labeled data in practice. In this paper, we propose a new method called SHINE, which is based on graph neural networ
The current state-of-the-art model HiAGM for hierarchical text classification has two limitations. First, it correlates each text sample with all labels in the dataset which contains irrelevant information. Second, it does not consider any statistica