نحن نقدم Rackbert، وهي طريقة ما قبل التدريب التي تزيد من طرازات اللغة بالقدرة على السبب في العلاقات الطويلة المدى والسياقات المختلفة المحتملة. على عكس أساليب ما قبل التدريب الموجودة التي تحصدها فقط إشارات تعليمية فقط من السياقات المحلية للنصوص التي تحدث بشكل طبيعي، نقترح فكرة عمومية للإشراف البعيد توصيل قطع النص والجداول متعددة تلقائيا لإنشاء أمثلة تدريبية مسبقا تتطلب منطق طويل المدى. يتم محاكاة أنواع مختلفة من المنطق، بما في ذلك تقاطع أجزاء متعددة من الأدلة، مدفوعة من قطعة واحدة من الأدلة إلى آخر، والكشف عن الحالات التي لا يمكن إجراؤها. نقوم بإجراء تقييم شامل حول مجموعة متنوعة من الأسئلة الاستخراجية التي تربط عن مجموعات البيانات التي تتراوح من قفزة واحدة من قفصات متعددة ومنصات فقط إلى الجدول فقط إلى الهجين والتي تتطلب إمكانيات التفكير المختلفة وإظهار أن Rackberber يحقق تحسنا ملحوظا على مجموعة من القوية خطوط الأساس. تظهر تجارب قليلة أكثر أن طريقتنا السابقة للتدريب على تحسين كفاءة عينة.
We present ReasonBert, a pre-training method that augments language models with the ability to reason over long-range relations and multiple, possibly hybrid contexts. Unlike existing pre-training methods that only harvest learning signals from local contexts of naturally occurring texts, we propose a generalized notion of distant supervision to automatically connect multiple pieces of text and tables to create pre-training examples that require long-range reasoning. Different types of reasoning are simulated, including intersecting multiple pieces of evidence, bridging from one piece of evidence to another, and detecting unanswerable cases. We conduct a comprehensive evaluation on a variety of extractive question answering datasets ranging from single-hop to multi-hop and from text-only to table-only to hybrid that require various reasoning capabilities and show that ReasonBert achieves remarkable improvement over an array of strong baselines. Few-shot experiments further demonstrate that our pre-training method substantially improves sample efficiency.
المراجع المستخدمة
https://aclanthology.org/
لأكثر من ثلاثين عاما، قام الباحثون بتطوير وتحليل طرق لتحريض الأشجار الكامنة كهدوث لنهج التحليل النحوي غير المقترح. ومع ذلك، لا تزال الأنظمة الحديثة لا تؤدي بشكل جيد بما فيه الكفاية مقارنة بنظيراتهم الخاضعة للإشراف للحصول على أي استخدام عملي باسم التع
يحتاج تحليل الأدبيات العلمي إلى التعرف على الكيان المسمى بشكل جيد (NER) لتوفير مجموعة واسعة من المعلومات للاكتشاف العلمي. على سبيل المثال، يحتاج أبحاث الكيمياء إلى دراسة العشرات إلى مئات أنواع الكيانات المتميزة والجمالية المميزة، مما يجعل التعليق الت
في تصنيف علاقة الخطاب الضمني، نريد التنبؤ بالعلاقة بين الجمل المجاورة في غياب أي اتصال خطاب علني. هذا أمر صعب حتى بالنسبة للبشر، مما يؤدي إلى نقص البيانات المشروح، وهي حقيقة تجعل المهمة أكثر صعوبة في نهج التعلم الآلي الإشراف. في الدراسة الحالية، نؤدي
حقق نماذج اللغة المدربة مسبقا بشكل جيد (LMS) نجاحا هائلا في العديد من مهام معالجة اللغة الطبيعية (NLP)، لكنها لا تزال تتطلب بيانات مفرطة الحجم في مرحلة ضبط الدقيقة. ندرس مشكلة LMS المدبرة مسبقا باستخدام إشراف ضعيف فقط، دون أي بيانات معدنية. هذه المشك
في حين أن النماذج اللغوية المدربة مسبقا (PLMS) هي محلول الذهاب لمعالجة العديد من مشاكل معالجة اللغة الطبيعية، فإنها لا تزال محدودة للغاية في قدرتها على التقاط ومعرفة المعيشية المشتركة. في الواقع، حتى إذا كانت المعلومات متوفرة في شكل قواعد منطقية تقري