أن تكون شركاء محادثة جيدة، يجب تدريب أنظمة معالجة اللغة الطبيعية (NLP) على إنتاج كلمات مفيدة بشكل سياق. حقق العمل المسبق في تدريب أنظمة NLP بالأهداف القائمة على الاتصالات، حيث يقف المستمع العصبي كشريك اتصال. ومع ذلك، فإن هذه الأنظمة تعاني عادة من الانجراف الدلالي حيث تتلاشى اللغة المستفادة جذريا من اللغة الطبيعية. نقترح طريقة تستخدم سكان المستمعين العصبيين لتنظيم تدريب المتكلم. نوضح أولا أن الانجراف اللغة ينشأ من معايرة عدم اليقين الفقيرة لمستمع عصبي، مما يجعل تنبؤات عالية اليقين على جمل الرواية. نستكشف من مجموعات المستمعين الفرقة والمقرها الفرقة والتسرب والعثور على أن النتائج السابقة في تحسين كمية عدم اليقين بشكل أفضل. نقيم كل من الأهداف القائمة على السكان بشأن الألعاب المرجعية، وإظهار أن طريقة الفرقة مع معايرة أفضل تمكن المتحدث من توليد الكلام البراغماتية مع التحول إلى مفردات كبيرة وتعميم للألعاب والمستمعين الجديدة.
To be good conversational partners, natural language processing (NLP) systems should be trained to produce contextually useful utterances. Prior work has investigated training NLP systems with communication-based objectives, where a neural listener stands in as a communication partner. However, these systems commonly suffer from semantic drift where the learned language diverges radically from natural language. We propose a method that uses a population of neural listeners to regularize speaker training. We first show that language drift originates from the poor uncertainty calibration of a neural listener, which makes high-certainty predictions on novel sentences. We explore ensemble- and dropout-based populations of listeners and find that the former results in better uncertainty quantification. We evaluate both population-based objectives on reference games, and show that the ensemble method with better calibration enables the speaker to generate pragmatic utterances while scaling to a large vocabulary and generalizing to new games and listeners.
References used
https://aclanthology.org/
Natural language processing (NLP) tasks, ranging from text classification to text generation, have been revolutionised by the pretrained language models, such as BERT. This allows corporations to easily build powerful APIs by encapsulating fine-tuned
Prior work on Data-To-Text Generation, the task of converting knowledge graph (KG) triples into natural text, focused on domain-specific benchmark datasets. In this paper, however, we verbalize the entire English Wikidata KG, and discuss the unique c
This paper explores how technology, particularly digital tools and artificial intelligence, are impacting multilingual communication and language transfer processes. Information and communication technologies are enabling novel interaction patterns,
Retrieval-based dialogue systems display an outstanding performance when pre-trained language models are used, which includes bidirectional encoder representations from transformers (BERT). During the multi-turn response selection, BERT focuses on tr
We seek to create agents that both act and communicate with other agents in pursuit of a goal. Towards this end, we extend LIGHT (Urbanek et al. 2019)---a large-scale crowd-sourced fantasy text-game---with a dataset of quests. These contain natural l