نحن نراجع ميزتين من مزيج من نماذج الخبراء (MOE) التي نسميها وتأثيرات التجميع في سياق محلل التبعية القائمة على الرسوم البيانية المستفادة في إطار احتمامي إشراف. يتوافق المتوسط مع مزيج الفرقة من المحللين وهو مسؤول عن تخفيض التباين الذي يساعد على استقرار وتحسين دقة التحليل. يصف التجميع طاقة نماذج وزارة التعليم لتعطي المزيد من الائتمان للخبراء يعتقد أنه أكثر دقة بالنظر إلى المدخلات. على الرغم من الواعدة، يصعب تحقيق ذلك، خاصة دون بيانات إضافية. نقوم بتصميم إعداد تجريبي لدراسة تأثير هذه الآثار. في حين أن المتوسط مفيد دائما، فإن التجميع يتطلب تقنيات التهيئة والاستقرار جيدة، لكن مزاياها على مدى المتوسط يبدو أنها تختفي في نهاية المطاف عندما يوجد عدد كاف من الخبراء. كمنتج حسب المنتج، نوضح كيف يؤدي ذلك إلى نتائج أحدث النتائج على PTB و Conll09 Treebank الصينية، مع انخفاض التباين عبر التجارب.
We review two features of mixture of experts (MoE) models which we call averaging and clustering effects in the context of graph-based dependency parsers learned in a supervised probabilistic framework. Averaging corresponds to the ensemble combination of parsers and is responsible for variance reduction which helps stabilizing and improving parsing accuracy. Clustering describes the capacity of MoE models to give more credit to experts believed to be more accurate given an input. Although promising, this is difficult to achieve, especially without additional data. We design an experimental set-up to study the impact of these effects. Whereas averaging is always beneficial, clustering requires good initialization and stabilization techniques, but its advantages over mere averaging seem to eventually vanish when enough experts are present. As a by product, we show how this leads to state-of-the-art results on the PTB and the CoNLL09 Chinese treebank, with low variance across experiments.
References used
https://aclanthology.org/
Abstract Interpretable rationales for model predictions are crucial in practical applications. We develop neural models that possess an interpretable inference process for dependency parsing. Our models adopt instance-based inference, where dependenc
The dominant paradigm for semantic parsing in recent years is to formulate parsing as a sequence-to-sequence task, generating predictions with auto-regressive sequence decoders. In this work, we explore an alternative paradigm. We formulate semantic
We propose the Recursive Non-autoregressive Graph-to-Graph Transformer architecture (RNGTr) for the iterative refinement of arbitrary graphs through the recursive application of a non-autoregressive Graph-to-Graph Transformer and apply it to syntacti
AM dependency parsing is a method for neural semantic graph parsing that exploits the principle of compositionality. While AM dependency parsers have been shown to be fast and accurate across several graphbanks, they require explicit annotations of t
Semantic representation that supports the choice of an appropriate connective between pairs of clauses inherently addresses discourse coherence, which is important for tasks such as narrative understanding, argumentation, and discourse parsing. We pr