تستخدم وظائف الاستحواذ المشتركة للتعلم النشط إما أخذ عينات من عدم اليقين أو التنوع، تهدف إلى تحديد نقاط بيانات صعبة ومتنوعة من مجموعة البيانات غير المسبقة، على التوالي. في هذا العمل، استمتع بأفضل ما في العالمين، نقترح وظيفة الاستحواذ المفتوحة لاختار الأمثلة المتعاقبة تماما، أي نقاط بيانات مشابهة في مساحة ميزة النموذج وحتى الآن مخرجات النموذج احتمالية تنبؤية مختلفة. قارنا نهجنا، CAL (التعلم النشط الصنع)، مع مجموعة متنوعة من وظائف الاستحواذ في أربعة مهام فهم اللغة الطبيعية وسبع مجموعات البيانات. تظهر تجاربنا أن CUR يؤدي Cal بشكل أفضل أو متساو من أفضل خط الأساس الأدائي عبر جميع المهام، على كل من البيانات داخل المجال والخروج. نقوم أيضا بإجراء دراسة واسعة النمذجة لطرأتنا، ونحن نتحلل جميع مجموعات البيانات المكتسبة بنشاط والتي توضح أن كال يحصل على مفاضلة أفضل بين عدم اليقين والتنوع مقارنة باستراتيجيات أخرى.
Common acquisition functions for active learning use either uncertainty or diversity sampling, aiming to select difficult and diverse data points from the pool of unlabeled data, respectively. In this work, leveraging the best of both worlds, we propose an acquisition function that opts for selecting contrastive examples, i.e. data points that are similar in the model feature space and yet the model outputs maximally different predictive likelihoods. We compare our approach, CAL (Contrastive Active Learning), with a diverse set of acquisition functions in four natural language understanding tasks and seven datasets. Our experiments show that CAL performs consistently better or equal than the best performing baseline across all tasks, on both in-domain and out-of-domain data. We also conduct an extensive ablation study of our method and we further analyze all actively acquired datasets showing that CAL achieves a better trade-off between uncertainty and diversity compared to other strategies.
References used
https://aclanthology.org/
High-quality arguments are an essential part of decision-making. Automatically predicting the quality of an argument is a complex task that recently got much attention in argument mining. However, the annotation effort for this task is exceptionally
Large-scale auto-regressive models have achieved great success in dialogue response generation, with the help of Transformer layers. However, these models do not learn a representative latent space of the sentence distribution, making it hard to cont
Entity Alignment (EA) aims to match equivalent entities across different Knowledge Graphs (KGs) and is an essential step of KG fusion. Current mainstream methods -- neural EA models -- rely on training with seed alignment, i.e., a set of pre-aligned
Neural machine translation (NMT) is sensitive to domain shift. In this paper, we address this problem in an active learning setting where we can spend a given budget on translating in-domain data, and gradually fine-tune a pre-trained out-of-domain N
While the predictive performance of modern statistical dependency parsers relies heavily on the availability of expensive expert-annotated treebank data, not all annotations contribute equally to the training of the parsers. In this paper, we attempt