لقد تم الاعتراف بأهمية بناء المحللين الدلاليين الذين يمكن تطبيقهم على مجالات جديدة وإنشاء برامج غير مرئية في التدريب لفترة طويلة، وقد تم الاعتراف لفترة طويلة، وتصبح مجموعات البيانات اختبار الأداء خارج النطاق متاحة بشكل متزايد. ومع ذلك، فقد تم تخصيص اهتمام ضئيل أو معدوني لتعلم الخوارزميات أو الأهداف التي تعزز تعميم المجال، حيث تعتمد جميع الأساليب الموجودة تقريبا على التعلم المعياري الإشرافي. في هذا العمل، نستخدم إطارا للتعلم من التعريف الذي يستهدف تعميم المجال الصفرية للتحليل الدلالي. نحن نطبق خوارزمية التدريب النموذجية المرجعية التي تحاكي تحليل اللقطة الصفرية من خلال بناء القطار الافتراضي ومجموعات الاختبار من مجالات Disfoint. يستحق الهدف التعلم عن الحدس الذي يجب عليه اتخاذ خطوات التدرج التي تعمل على تحسين أداء مجال المصدر أيضا على تحسين أداء المجال المستهدف، وبالتالي تشجيع المحلل المحلل على تعميم المجالات المستهدفة غير المرئية. النتائج التجريبية على (الإنجليزية) عن مجموعات البيانات العنكبوت والصينية الصينية تظهر أن هدف التعلم التلوي يعزز بشكل كبير أداء محلل الأساس.
The importance of building semantic parsers which can be applied to new domains and generate programs unseen at training has long been acknowledged, and datasets testing out-of-domain performance are becoming increasingly available. However, little or no attention has been devoted to learning algorithms or objectives which promote domain generalization, with virtually all existing approaches relying on standard supervised learning. In this work, we use a meta-learning framework which targets zero-shot domain generalization for semantic parsing. We apply a model-agnostic training algorithm that simulates zero-shot parsing by constructing virtual train and test sets from disjoint domains. The learning objective capitalizes on the intuition that gradient steps that improve source-domain performance should also improve target-domain performance, thus encouraging a parser to generalize to unseen target domains. Experimental results on the (English) Spider and Chinese Spider datasets show that the meta-learning objective significantly boosts the performance of a baseline parser.
References used
https://aclanthology.org/
Semantic parsing aims at translating natural language (NL) utterances onto machine-interpretable programs, which can be executed against a real-world environment. The expensive annotation of utterance-program pairs has long been acknowledged as a maj
Humans are capable of learning novel concepts from very few examples; in contrast, state-of-the-art machine learning algorithms typically need thousands of examples to do so. In this paper, we propose an algorithm for learning novel concepts by repre
Meta learning aims to optimize the model's capability to generalize to new tasks and domains. Lacking a data-efficient way to create meta training tasks has prevented the application of meta-learning to the real-world few shot learning scenarios. Rec
Meta-learning has recently been proposed to learn models and algorithms that can generalize from a handful of examples. However, applications to structured prediction and textual tasks pose challenges for meta-learning algorithms. In this paper, we a
Recent researches show that pre-trained models (PTMs) are beneficial to Chinese Word Segmentation (CWS). However, PTMs used in previous works usually adopt language modeling as pre-training tasks, lacking task-specific prior segmentation knowledge an