في الآونة الأخيرة، تصبح نماذج الهجوم المصنوع النصي شعبية بشكل متزايد بسبب نجاحها في تقدير نماذج NLP. ومع ذلك، فإن المصنفات الموجودة لها أوجه قصور واضحة. (1) عادة ما يفكرون فقط بتعبئة واحدة من استراتيجيات التعديل (على سبيل المثال Word-level-level-level)، وهو غير كاف لاستكشاف الفضاء النصي الشامل للجيل؛ (2) يحتاجون إلى الاستعلام عن نماذج الضحية مئات المرات لإجراء هجوم ناجح، وهو غير فعال للغاية في الممارسة العملية. لمعالجة هذه المشكلات، في هذه الورقة نقترح Maya، نموذج هجوم متعدد الحبيبات لتوليد عينات خصومة عالية الجودة عالية الجودة مع استعلامات أقل من نماذج الضحايا. علاوة على ذلك، نقترح طريقة تعتمد على التعزيز لتدريب وكيل هجوم متعدد التحبيب من خلال استنساخ السلوك مع معرفة الخبراء من خوارزمية مايا لدينا لتقليل أوقات الاستعلام. بالإضافة إلى ذلك، نقوم أيضا بتكييف الوكيل لمهاجمة نماذج الصندوق الأسود التي تستلزمات الإخراج فقط دون درجات الثقة. نحن نقوم بإجراء تجارب شاملة لتقييم نماذج الهجوم لدينا عن طريق مهاجمة Bilstm و Bert and Roberta في إعدادات هجوم سوداء مختلفة وثلاثة مجموعات بيانات معيار. تظهر النتائج التجريبية أن نماذجنا تحقق أداء مهاجم بشكل عام وتنتج عينات خصومة أكثر بطلاقة وحلال قوسنة مقارنة بالنماذج الأساسية. علاوة على ذلك، يقلل وكيل الهجوم الخاص بنا بشكل كبير من أوقات الاستعلام في كلا من إعدادات الهجوم. يتم إصدار رموزنا في https://github.com/yangyi-chen/maya.
Recently, the textual adversarial attack models become increasingly popular due to their successful in estimating the robustness of NLP models. However, existing works have obvious deficiencies. (1)They usually consider only a single granularity of modification strategies (e.g. word-level or sentence-level), which is insufficient to explore the holistic textual space for generation; (2) They need to query victim models hundreds of times to make a successful attack, which is highly inefficient in practice. To address such problems, in this paper we propose MAYA, a Multi-grAnularitY Attack model to effectively generate high-quality adversarial samples with fewer queries to victim models. Furthermore, we propose a reinforcement-learning based method to train a multi-granularity attack agent through behavior cloning with the expert knowledge from our MAYA algorithm to further reduce the query times. Additionally, we also adapt the agent to attack black-box models that only output labels without confidence scores. We conduct comprehensive experiments to evaluate our attack models by attacking BiLSTM, BERT and RoBERTa in two different black-box attack settings and three benchmark datasets. Experimental results show that our models achieve overall better attacking performance and produce more fluent and grammatical adversarial samples compared to baseline models. Besides, our adversarial attack agent significantly reduces the query times in both attack settings. Our codes are released at https://github.com/Yangyi-Chen/MAYA.
References used
https://aclanthology.org/
Representation learning is widely used in NLP for a vast range of tasks. However, representations derived from text corpora often reflect social biases. This phenomenon is pervasive and consistent across different neural models, causing serious conce
Adversarial examples expose the vulnerabilities of natural language processing (NLP) models, and can be used to evaluate and improve their robustness. Existing techniques of generating such examples are typically driven by local heuristic rules that
Recent literatures have shown that knowledge graph (KG) learning models are highly vulnerable to adversarial attacks. However, there is still a paucity of vulnerability analyses of cross-lingual entity alignment under adversarial attacks. This paper
In this work, we study the task of classifying legal texts written in the Greek language. We introduce and make publicly available a novel dataset based on Greek legislation, consisting of more than 47 thousand official, categorized Greek legislation
In question generation, the question produced has to be well-formed and meaningfully related to the answer serving as input. Neural generation methods have predominantly leveraged the distributional semantics of words as representations of meaning an