نقدم Inferbert، وهي طريقة لتعزيز نماذج الاستدلال القائمة على المحولات مع المعرفة العلائقية ذات الصلة. يسهل نهجنا تعلم أنماط الاستدلال العامة التي تتطلب معرفة علوية (على سبيل المثال الاستدلالات المتعلقة بفرط النعطح) أثناء التدريب، مع حقنها عند الطلب الحقائق العلائقية ذات الصلة (E.G. Pangolin هي حيوان) في وقت الاختبار. نطبق Inferbert بمهمة NLI على مجموعة متنوعة من أنواع الاستدلال (ارتفاع ضغط الدم، الموقع، اللون، وبلد بلد المنشأ)، التي جمعنا مجموعات بيانات التحدي. في هذا الإعداد، ينجح Inferbert في تعلم أنماط الاستدلال العام، من عدد صغير نسبيا من مثيلات التدريب، مع عدم إظليل الأداء على بيانات NLI الأصلية وتفوق نماذج تحسين المعرفة السابقة بشكل كبير على بيانات التحدي. وينطبق كذلك استنتاجاتها بنجاح في وقت اختبار الكيانات غير المفككة سابقا. Inferbert هو أكثر كفاءة على حسابي أكثر كفاءة من معظم الطرق السابقة، من حيث عدد المعلمات واستهلاك الذاكرة وتدريب الوقت.
We present InferBert, a method to enhance transformer-based inference models with relevant relational knowledge. Our approach facilitates learning generic inference patterns requiring relational knowledge (e.g. inferences related to hypernymy) during training, while injecting on-demand the relevant relational facts (e.g. pangolin is an animal) at test time. We apply InferBERT to the NLI task over a diverse set of inference types (hypernymy, location, color, and country of origin), for which we collected challenge datasets. In this setting, InferBert succeeds to learn general inference patterns, from a relatively small number of training instances, while not hurting performance on the original NLI data and substantially outperforming prior knowledge enhancement models on the challenge data. It further applies its inferences successfully at test time to previously unobserved entities. InferBert is computationally more efficient than most prior methods, in terms of number of parameters, memory consumption and training time.
المراجع المستخدمة
https://aclanthology.org/
تعرض أمثلة الخصومة نقاط الضعف في نماذج معالجة اللغة الطبيعية (NLP)، ويمكن استخدامها لتقييم وتحسين متواضتهم. عادة ما تكون التقنيات الحالية لتوليد هذه الأمثلة تحركها القواعد المتخذة المحلية غير الملأمة في السياق، وغالبا ما تؤدي إلى مخرجات غير طبيعية وغ
يتطلب بناء نماذج لمهام اللغة الطبيعية الواقعية التعامل مع النصوص الطويلة والمحاسبة التبعيات الهيكلية المعقدة.ظهرت تمثيلات رمزية عصبية كوسيلة للجمع بين قدرات التفكير في الأساليب الرمزية، مع تعبير الشبكات العصبية.ومع ذلك، فقد صممت معظم الأطر الموجودة ل
يعد الكشف عن الموقف على Twitter تحديا بشكل خاص بسبب الطول القصير لكل سقسقة، والتعايش المستمر لمصطلحات جديدة وعلاج التصنيف، وانحراف هيكل الجملة من النثر القياسي.تم عرض نماذج لغة ذات ضبطها باستخدام بيانات داخل المجال على نطاق واسع لتكون الحالة الجديدة
إن الاستدلال اللغوي الطبيعي هو طريقة لإيجاد الاستدلالات في نصوص اللغة.فهم معنى الجملة واستدلالها أمر ضروري في العديد من تطبيقات معالجة اللغة.في هذا السياق، نعتبر مشكلة الاستدلال بلغة Dravidian، مالايالام.تدرب شبكات سيامي أزواج فرضية النص مع Adgedding
تم عرض الجمع بين نموذج لغة مسبق (PLM) مع أنماط نصية للمساعدة في كل من إعدادات الطلقة الصفرية وعدد. بالنسبة للأداء الصفر بالرصاص، فمن المنطقي تصميم أنماط تشبه النص الذي ينظر إليه عن كثب أثناء الاحتجاج بالإشراف على الذات لأن النموذج لم ير أي شيء آخر. ا