وقد تبين أن التنظيم العديزي لتحسين أداء تعميم نماذج التعلم العميق في مهام معالجة اللغة الطبيعية المختلفة. تعمل الأعمال الموجودة عادة الطريقة كأفضل لعبة مبلغ صفر، والتي تم حلها من خلال خوارزميات نزول / صعود التدرج المتناوب. مثل هذه الصياغة يعامل اللاعبين والدفاع عن اللاعبين على قدم المساواة، وهو أمر غير مرغوب فيه لأن اللاعب المدافع فقط يساهم في أداء التعميم. لمعالجة هذه المسألة، نقترح بنظام Stackelberg الخصم (الملح)، الذي يصوغ التنظيم العديزي كأرعاب Stackelberg. يستحث هذا الصيغة منافسة بين قائد ومتابعته، حيث يولد التابع الاضطرابات، والقائد يدرب النموذج المعني بالاضطرابات. تختلف عن الأساليب التقليدية، في السلط، الزعيم في وضع مفيد. عندما يتحرك القائد، فإنه يتعرف على استراتيجية التابع ويأخذ نتائج التابع المتوقعة في الاعتبار. تمكننا ميزة الزعيم هذه من تحسين النموذج المناسب للبيانات غير المضطربة. يتم التقاط المعلومات الاستراتيجية للزعيم من قبل التدرج من Stackelberg، والتي يتم الحصول عليها باستخدام خوارزمية غير مثيرة. تظهر نتائجنا التجريبية على مجموعة من الترجمة الآلية ومهام فهم اللغة الطبيعية أن الملح يتفوق على خطوط خطوط الأساس بين المخدرات الموجودة في جميع المهام. رمز لدينا هو متاح علنا.
Adversarial regularization has been shown to improve the generalization performance of deep learning models in various natural language processing tasks. Existing works usually formulate the method as a zero-sum game, which is solved by alternating gradient descent/ascent algorithms. Such a formulation treats the adversarial and the defending players equally, which is undesirable because only the defending player contributes to the generalization performance. To address this issue, we propose Stackelberg Adversarial Regularization (SALT), which formulates adversarial regularization as a Stackelberg game. This formulation induces a competition between a leader and a follower, where the follower generates perturbations, and the leader trains the model subject to the perturbations. Different from conventional approaches, in SALT, the leader is in an advantageous position. When the leader moves, it recognizes the strategy of the follower and takes the anticipated follower's outcomes into consideration. Such a leader's advantage enables us to improve the model fitting to the unperturbed data. The leader's strategic information is captured by the Stackelberg gradient, which is obtained using an unrolling algorithm. Our experimental results on a set of machine translation and natural language understanding tasks show that SALT outperforms existing adversarial regularization baselines across all tasks. Our code is publicly available.
References used
https://aclanthology.org/
We investigate if a model can learn natural language with minimal linguistic input through interaction. Addressing this question, we design and implement an interactive language learning game that learns logical semantic representations compositional
In this paper, we address unsupervised chunking as a new task of syntactic structure induction, which is helpful for understanding the linguistic structures of human languages as well as processing low-resource languages. We propose a knowledge-trans
Online reviews are an essential aspect of online shopping for both customers and retailers. However, many reviews found on the Internet lack in quality, informativeness or helpfulness. In many cases, they lead the customers towards positive or negati
Abstract Text classification is a widely studied problem and has broad applications. In many real-world problems, the number of texts for training classification models is limited, which renders these models prone to overfitting. To address this prob
Unsupervised relation extraction works by clustering entity pairs that have the same relations in the text. Some existing variational autoencoder (VAE)-based approaches train the relation extraction model as an encoder that generates relation classif