لبناء أسئلة قوية لإجابة أنظمة الرد، نحتاج إلى القدرة على التحقق مما إذا كانت الإجابات على الأسئلة صحيحة حقا، وليس فقط جيدة بما فيه الكفاية "في سياق مجموعات بيانات QA غير الكاملة. نستكشف استخدام الاستدلال اللغوي الطبيعي (NLI) كوسيلة لتحقيق هذا الهدف، كما يتطلب NLI بطبيعته الفرضية (سياق المستند) لاحتواء جميع المعلومات اللازمة لدعم الفرضية (الإجابة المقترحة على السؤال). نستفيد النماذج الكبيرة المدربة مسبقا ومجموعات البيانات السابقة الأخيرة لبناء وحدات تحويل أسئلة قوية ووحدات فك التشفير، والتي يمكنها إعادة صياغة حالات ضمان الجودة كأزواج فرضية فرضية ذات موثوقية عالية جدا. ثم، من خلال الجمع بين مجموعات بيانات NLI القياسية مع أمثلة NLI تلقائيا من بيانات تدريب ضمان الجودة، يمكننا تدريب نماذج NLI لتقييم الإجابات المقترحة بنماذج QA. نظهر أن نهجنا يحسن تقدير ثقة نموذج ضمان الجودة عبر المجالات المختلفة، يتم تقييمها في إعداد ضمان الجودة الانتقائي. يظهر التحليل اليدوي الدقيق حول تنبؤات نموذج NLI الخاص بنا أنه يمكنه تحديد الحالات التي ينتج فيها نموذج ضمان الجودة الإجابة الصحيحة للسبب الخطأ، أي، عندما لا تستطيع جملة الإجابة معالجة جميع جوانب السؤال.
To build robust question answering systems, we need the ability to verify whether answers to questions are truly correct, not just good enough'' in the context of imperfect QA datasets. We explore the use of natural language inference (NLI) as a way to achieve this goal, as NLI inherently requires the premise (document context) to contain all necessary information to support the hypothesis (proposed answer to the question). We leverage large pre-trained models and recent prior datasets to construct powerful question conversion and decontextualization modules, which can reformulate QA instances as premise-hypothesis pairs with very high reliability. Then, by combining standard NLI datasets with NLI examples automatically derived from QA training data, we can train NLI models to evaluate QA models' proposed answers. We show that our approach improves the confidence estimation of a QA model across different domains, evaluated in a selective QA setting. Careful manual analysis over the predictions of our NLI model shows that it can further identify cases where the QA model produces the right answer for the wrong reason, i.e., when the answer sentence cannot address all aspects of the question.
المراجع المستخدمة
https://aclanthology.org/
أصبحت تمثيلات ناقلات عنصر مركزي في نمذجة اللغة الدلالية، مما يؤدي إلى التداخل الرياضي مع العديد من الحقول بما في ذلك النظرية الكمومية. التركيز هو الهدف الأساسي لهذه التمثيل: تمثيل تمثيلات مع الرطب "والأسماك"، كيف ينبغي تمثيل مفهوم السمك الرطب؟ يستطلع
تقوم الترجمة العصبية متعددة اللغات (MNMT) بتدريب نموذج NMT واحد يدعم الترجمة بين لغات متعددة، بدلا من تدريب نماذج منفصلة لغات مختلفة. تعلم نموذج واحد يمكن أن يعزز الترجمة المنخفضة الموارد من خلال الاستفادة من البيانات من لغات متعددة. ومع ذلك، فإن أدا
تعرض مشكلة الإجابة على الأسئلة التي تستخدم المعرفة من طرازات اللغة المدربة مسبقا (LMS) ورسم الرسوم البيانية المعرفة (KGS) تحديين: بالنظر إلى سياق ضمان الجودة (اختيار الأسئلة والأجوبة)، فإن الأساليب تحتاج إلى (I) تحديد المعرفة ذات الصلة من KGS الكبيرة
يهدف البحث إلى دراسة نظام التبريد التبخيري في عملية التبريد باستخدام نموذجين من الأوعية (الفخارية، المعدنية). أجريت الدراسة في موقع من محافظة طرطوس في فترة الشهر (الرابع –الخامس –السادس)، لعام 2013، و ذلك على ثمار البندورة، فبينت الدراسة أن الفخار يس
أهداف المحاذاة الكامنة مثل CTC والفأس تحسن بشكل كبير نماذج الترجمة الآلية غير التلقائي.هل يمكنهم تحسين النماذج التلقائية أيضا؟نستكشف إمكانية تدريب نماذج الترجمة الآلية ذات الجهاز التلقائي بأهداف محاذاة كامنة، ومراقبة ذلك، في الممارسة العملية، ينتج هذ