نقدم Inferbert، وهي طريقة لتعزيز نماذج الاستدلال القائمة على المحولات مع المعرفة العلائقية ذات الصلة. يسهل نهجنا تعلم أنماط الاستدلال العامة التي تتطلب معرفة علوية (على سبيل المثال الاستدلالات المتعلقة بفرط النعطح) أثناء التدريب، مع حقنها عند الطلب الحقائق العلائقية ذات الصلة (E.G. Pangolin هي حيوان) في وقت الاختبار. نطبق Inferbert بمهمة NLI على مجموعة متنوعة من أنواع الاستدلال (ارتفاع ضغط الدم، الموقع، اللون، وبلد بلد المنشأ)، التي جمعنا مجموعات بيانات التحدي. في هذا الإعداد، ينجح Inferbert في تعلم أنماط الاستدلال العام، من عدد صغير نسبيا من مثيلات التدريب، مع عدم إظليل الأداء على بيانات NLI الأصلية وتفوق نماذج تحسين المعرفة السابقة بشكل كبير على بيانات التحدي. وينطبق كذلك استنتاجاتها بنجاح في وقت اختبار الكيانات غير المفككة سابقا. Inferbert هو أكثر كفاءة على حسابي أكثر كفاءة من معظم الطرق السابقة، من حيث عدد المعلمات واستهلاك الذاكرة وتدريب الوقت.
We present InferBert, a method to enhance transformer-based inference models with relevant relational knowledge. Our approach facilitates learning generic inference patterns requiring relational knowledge (e.g. inferences related to hypernymy) during training, while injecting on-demand the relevant relational facts (e.g. pangolin is an animal) at test time. We apply InferBERT to the NLI task over a diverse set of inference types (hypernymy, location, color, and country of origin), for which we collected challenge datasets. In this setting, InferBert succeeds to learn general inference patterns, from a relatively small number of training instances, while not hurting performance on the original NLI data and substantially outperforming prior knowledge enhancement models on the challenge data. It further applies its inferences successfully at test time to previously unobserved entities. InferBert is computationally more efficient than most prior methods, in terms of number of parameters, memory consumption and training time.
References used
https://aclanthology.org/
Adversarial examples expose the vulnerabilities of natural language processing (NLP) models, and can be used to evaluate and improve their robustness. Existing techniques of generating such examples are typically driven by local heuristic rules that
Building models for realistic natural language tasks requires dealing with long texts and accounting for complicated structural dependencies. Neural-symbolic representations have emerged as a way to combine the reasoning capabilities of symbolic meth
Detecting stance on Twitter is especially challenging because of the short length of each tweet, the continuous coinage of new terminology and hashtags, and the deviation of sentence structure from standard prose. Fine-tuned language models using lar
Natural language inference is a method of finding inferences in language texts. Understanding the meaning of a sentence and its inference is essential in many language processing applications. In this context, we consider the inference problem for a
Combining a pretrained language model (PLM) with textual patterns has been shown to help in both zero- and few-shot settings. For zero-shot performance, it makes sense to design patterns that closely resemble the text seen during self-supervised pret