برزت نماذج اللغة المدربة مسبقا كطرق ناجحة للغاية لتعلم تمثيلات نصية جيدة. ومع ذلك، فإن كمية المعرفة المنظمة المحتجزة في هذه النماذج، وكيف يمكن استخراج (إذا كان على الإطلاق)، فلا يزال سؤالا مفتوحا. في هذا العمل، نهدف إلى التعلم مباشرة من التمثيلات النصية التي ترفض المعرفة المنظمة حول الكيانات المذكورة في النص. هذا يمكن أن يكون مفيدا بشكل خاص لمهام المصب التي هي مكثفة المعرفة. يستخدم نهجنا اهتماما الذات بين الكلمات في كيانات الرسم البياني للنص والمعرفة (KG) المذكورة في النص. في حين تتطلب الأساليب الحالية بيانات مرتبطة بالكياء للتدريب المسبق، فإننا نتدرب باستخدام هدف إخفاء الإشارة وهدف المرشح - الذي لا يتطلب أي روابط كيانا وفتح فقط الوصول إلى جدول الاسم المستعار لاسترداد المرشحين، تمكين ما قبل التدريب على نطاق واسع. نظهر أن النموذج المقترح يتعلم تمثيلات النص المستنيرة بالمعرفة التي تسفر عن تحسينات على مهام المصب على الأساليب الحالية.
Pre-trained language models have emerged as highly successful methods for learning good text representations. However, the amount of structured knowledge retained in such models, and how (if at all) it can be extracted, remains an open question. In this work, we aim at directly learning text representations which leverage structured knowledge about entities mentioned in the text. This can be particularly beneficial for downstream tasks which are knowledge-intensive. Our approach utilizes self-attention between words in the text and knowledge graph (KG) entities mentioned in the text. While existing methods require entity-linked data for pre-training, we train using a mention-span masking objective and a candidate ranking objective -- which doesn't require any entity-links and only assumes access to an alias table for retrieving candidates, enabling large-scale pre-training. We show that the proposed model learns knowledge-informed text representations that yield improvements on the downstream tasks over existing methods.
References used
https://aclanthology.org/
This paper describes NAIST's system for the English-to-Japanese Simultaneous Text-to-text Translation Task in IWSLT 2021 Evaluation Campaign. Our primary submission is based on wait-k neural machine translation with sequence-level knowledge distillation to encourage literal translation.
In this paper we apply self-knowledge distillation to text summarization which we argue can alleviate problems with maximum-likelihood training on single reference and noisy datasets. Instead of relying on one-hot annotation labels, our student summa
Learning to capture text-table alignment is essential for tasks like text-to-SQL. A model needs to correctly recognize natural language references to columns and values and to ground them in the given database schema. In this paper, we present a nove
Deep-learning models for language generation tasks tend to produce repetitive output. Various methods have been proposed to encourage lexical diversity during decoding, but this often comes at a cost to the perceived fluency and adequacy of the outpu
The design of expressive representations of entities and relations in a knowledge graph is an important endeavor. While many of the existing approaches have primarily focused on learning from relational patterns and structural information, the intrin