غالبا ما يتم دعم الأبحاث في NLP من خلال النتائج التجريبية، وقد يؤدي الإبلاغ المحسن لهذه النتائج إلى فهم أفضل وأكثر استنساخا. في هذه الورقة، نحلل ثلاثة مقدرين إحصائي لأداء التحقق من الصحة المتوقع، وهي أداة تستخدم لأداء الإبلاغ (على سبيل المثال، الدقة) كدالة للميزانية الحاسوبية (على سبيل المثال، عدد تجارب ضبط HyperParameter). عندما يقوم العمل السابق بتحليل مثل هذه المقدرين يركز على التحيز، فإننا ندرس أيضا التباين ويعني الخطأ التربيعي (MSE). في كل من السيناريوهات الاصطناعية والواقعية، نقوم بتقييم ثلاثة مقدرين والعثور على مقدر غير متحيز لديه أعلى التباين، ومقدر أصغر البتان لديه أكبر تحيز؛ يقيم أصغر MSE يضرب توازن بين التحيز والتباين، وعرض مفاضلة الكلاسيكية من تباين التحيز. نحن نستخدم أداء التحقق من الصحة المتوقع للمقارنة بين النماذج المختلفة، وتحليل مدى متكرر كل مقدر يؤدي إلى رسم استنتاجات غير صحيحة حول أي نماذج تؤدي إلى الأفضل. نجد أن المقدرين المتحيزين تؤدي إلى أقل استنتاجات غير صحيحة، تلمحون بأهمية التقليل من التباين و MSE.
Research in NLP is often supported by experimental results, and improved reporting of such results can lead to better understanding and more reproducible science. In this paper we analyze three statistical estimators for expected validation performance, a tool used for reporting performance (e.g., accuracy) as a function of computational budget (e.g., number of hyperparameter tuning experiments). Where previous work analyzing such estimators focused on the bias, we also examine the variance and mean squared error (MSE). In both synthetic and realistic scenarios, we evaluate three estimators and find the unbiased estimator has the highest variance, and the estimator with the smallest variance has the largest bias; the estimator with the smallest MSE strikes a balance between bias and variance, displaying a classic bias-variance tradeoff. We use expected validation performance to compare between different models, and analyze how frequently each estimator leads to drawing incorrect conclusions about which of two models performs best. We find that the two biased estimators lead to the fewest incorrect conclusions, which hints at the importance of minimizing variance and MSE.
References used
https://aclanthology.org/
We hereby present our submission to the Shared Task in Evaluating Accuracy at the INLG 2021 Conference. Our evaluation protocol relies on three main components; rules and text classifiers that pre-annotate the dataset, a human annotator that validate
Wireless networks suffer from frequent loss of packets for many reasons such as
interference, collision and fading. This makes wireless medium unreliable medium for data
transfer. The main methods for ensuring the reliability in this medium are usi
For decades, published Automatic Signature Verification (ASV) works depended on using one feature set. Some researchers selected this feature set based on their experience, and some others selected it using some feature selection algorithms that can
Pre-trained neural language models give high performance on natural language inference (NLI) tasks. But whether they actually understand the meaning of the processed sequences is still unclear. We propose a new diagnostics test suite which allows to
While annotating normalized times in food security documents, we found that the semantically compositional annotation for time normalization (SCATE) scheme required several near-duplicate annotations to get the correct semantics for expressions like