الشبكات العصبية العميقة عرضة للهجمات الخصومة، حيث اضطراب صغير في المدخل يغير التنبؤ النموذجي.في كثير من الحالات، يمكن أن تخدع المدخلات الخبيثة عن قصد لنموذج واحد نموذج آخر.في هذه الورقة، نقدم الدراسة الأولى للتحقيق بشكل منهجي في تحويل أمثلة الخصومة بشكل منهجي لنماذج تصنيف النص واستكشاف كيفية تأثير مختلف العوامل، بما في ذلك بنية الشبكة، نظام التكتلات، وإدماج الكلمات، والقدرة النموذجية، على تحويل أمثلة الخصومة.بناء على هذه الدراسات، نقترح خوارزمية وراثية للعثور على مجموعة من النماذج التي يمكن استخدامها لتحفيز أمثلة الخصومة لخداع جميع النماذج الحالية تقريبا.تعكس هذه الأمثلة المخدرة عيوب عملية التعلم وتحيز البيانات في مجموعة التدريب.أخيرا، نحن نستمد قواعد استبدال الكلمات التي يمكن استخدامها لتشخيصات النموذج من هذه الأمثلة الخصومة.