يعمل العمل الأخير (فنغ وآخرون.، 2018) وجود شظايا مدخلات قصيرة غير قابلة للتفسير التي تحقق ثقة عالية ودقة في النماذج العصبية. نشير إلى هذه المدخلات الحد الأدنى للحفاظ على التنبؤ (MPPIS). في سياق الإجابة على السؤال، نحن نحقق في الفرضيات المتنافسة لوجود MPPIs، بما في ذلك ضعف المعايرة الخلفية للنماذج العصبية، ونقص الاحيلات، وتحيز DataSet "(حيث يتعلم نموذج الحضور إلى العظة الزائفة غير الجماعية بيانات التدريب). نكتشف التحير الثابت في MPPIS إلى بذور التدريب العشوائي، والهندسة المعمارية النموذجية، ومجال التدريب، والمجال التدريبي. إظهار MPPIS إمكانية نقل رائعة عبر المجالات التي تحقق أداء أعلى بكثير من استفسارات قصيرة مماثلة. بالإضافة إلى ذلك، فشل معاقبة الثقة الزائدة في MPPIS تحسين إما التعميم أو المتانة الخصومة. تشير هذه النتائج إلى إمكانية تفسير MPPIS غير كافية لتوصيف قدرة التعميم لهذه النماذج. نأمل أن يشجع هذا التحقيق المركز تحليلا منهجيا للسلوك النموذجي خارج التوزيع القابل للتفسير البشري للأمثلة.
Recent work (Feng et al., 2018) establishes the presence of short, uninterpretable input fragments that yield high confidence and accuracy in neural models. We refer to these as Minimal Prediction Preserving Inputs (MPPIs). In the context of question answering, we investigate competing hypotheses for the existence of MPPIs, including poor posterior calibration of neural models, lack of pretraining, and dataset bias'' (where a model learns to attend to spurious, non-generalizable cues in the training data). We discover a perplexing invariance of MPPIs to random training seed, model architecture, pretraining, and training domain. MPPIs demonstrate remarkable transferability across domains achieving significantly higher performance than comparably short queries. Additionally, penalizing over-confidence on MPPIs fails to improve either generalization or adversarial robustness. These results suggest the interpretability of MPPIs is insufficient to characterize generalization capacity of these models. We hope this focused investigation encourages more systematic analysis of model behavior outside of the human interpretable distribution of examples.
References used
https://aclanthology.org/
In open-domain question answering (QA), retrieve-and-read mechanism has the inherent benefit of interpretability and the easiness of adding, removing, or editing knowledge compared to the parametric approaches of closed-book QA models. However, it is
The evaluation of question answering models compares ground-truth annotations with model predictions. However, as of today, this comparison is mostly lexical-based and therefore misses out on answers that have no lexical overlap but are still semanti
Morphological rules with various levels of specificity can be learned from example lexemes by recursive application of minimal generalization (Albright and Hayes, 2002, 2003).A model that learns rules solely through minimal generalization was used to
NLP research in Hebrew has largely focused on morphology and syntax, where rich annotated datasets in the spirit of Universal Dependencies are available. Semantic datasets, however, are in short supply, hindering crucial advances in the development o
We present an information retrieval-based question answer system to answer legal questions. The system is not limited to a predefined set of questions or patterns and uses both sparse vector search and embeddings for input to a BERT-based answer re-r