ترغب بنشر مسار تعليمي؟ اضغط هنا

كن حذرا حول تضييق كلمة تسمم: استكشاف ضعف طبقات التضمين في نماذج NLP

Be Careful about Poisoned Word Embeddings: Exploring the Vulnerability of the Embedding Layers in NLP Models

319   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

كشفت الدراسات الحديثة عن تهديد أمني لنماذج معالجة اللغة الطبيعية (NLP)، تسمى هجوم الوكيل. يمكن أن تحافظ نماذج الضحايا الحفاظ على أداء تنافسي على عينات نظيفة أثناء التصرف بشكل غير واضح على العينات ذات كلمة مشغلة محددة إدراجها. عادة ما تتحمل أساليب المهاجمة السابقة أن المهاجمين لديهم درجة معينة من المعرفة بالبيانات، إما مجموعة البيانات التي يستخدمها المستخدمون أو مجموعات البيانات الوكيل لمهمة مماثلة، لتنفيذ إجراء تسمم البيانات. ومع ذلك، في هذه الورقة، نجد أنه من الممكن اختراق النموذج بطريقة خالية من البيانات عن طريق تعديل ناقلات كلمة واحدة تضمينها، مع عدم التضحية بدقة تقريبا على عينات نظيفة. تظهر النتائج التجريبية على تحليل المعنويات ومهام تصنيف زوج الجملة أن طريقتنا أكثر كفاءة وسيلة كريهة. نأمل أن يرفع هذا العمل الوعي بمثل هذا المخاطر الأمنية الحرجة المخفية في طبقات تضمين نماذج NLP. يتوفر الكود الخاص بنا في https://github.com/lancopku/mbedding-poisioning.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

هجمات الخصومة تغيير تنبؤات نموذج NLP من خلال اضطراب مدخلات وقت الاختبار.ومع ذلك، فمن الأقل تفهم سواء، وكيف يمكن التلاعب بالتنبؤات مع تغييرات صغيرة مخفية في بيانات التدريب.في هذا العمل، نقوم بتطوير هجوم جديد لتسمم البيانات يتيح خصما للسيطرة على تنبؤات النموذج كلما كانت عبارة الزناد المرغوبة موجودة في المدخلات.على سبيل المثال، ندرج 50 أمثلة سامة في مجموعة تدريب طراز المعنويات التي تسبب النموذج يتوقع بشكل متكرر إيجابية كلما كان الإدخال يحتوي على جيمس بوند ".من الأهمية، نحن نقوم بتحرير هذه الأمثلة السامة باستخدام إجراء يستند إلى التدرج حتى لا يذكر عبارة الزناد.نحن نطبق أيضا هجوم السم لدينا على نمذجة اللغة (تشغيل Apple iPhone "يؤدي إلى الأجيال السلبية) والترجمة الآلية (" القهوة المثلجة "التي يتم إساءة فهمها كقهوة ساخنة").نستنتج من خلال اقتراح ثلاثة دفاعات يمكن أن تخفف من هجومنا على بعض التكلفة في دقة التنبؤ أو الشرح البشري الإضافي.
أدى اعتماد النماذج القائمة على المحولات في معالجة اللغة الطبيعية (NLP) إلى نجاح كبير باستخدام عدد ضخم من المعلمات. ومع ذلك، نظرا لقيود النشر في أجهزة الحافة، كان هناك اهتمام متزايد في ضغط هذه النماذج لتحسين وقت استئنافهم وبصمة الذاكرة. تعرض هذه الورق ة هدف خسارة رواية لضغط Token Ageddings في النماذج القائمة على المحولات من خلال الاستفادة من بنية AutoNCoder. وبشكل أكثر تحديدا، نؤكد على أهمية اتجاه المدينات المضغوطة فيما يتعلق بالمظلات الأصلية غير المضغوطة. الطريقة المقترحة هي المهام الملحد ولا يتطلب نمذجة لغة أخرى قبل التدريب. يتفوق طريقنا بشكل كبير على نهج مصفوفة مصفوفة SVD شائعة الاستخدام من حيث حيرة نموذج اللغة الأولي. علاوة على ذلك، نقوم بتقييم نهجنا المقترح بشأن مجموعة بيانات Squad V1.1 والعديد من مهام المصب من معيار الغراء، حيث نتفوق أيضا على الأساس في معظم السيناريوهات. كودنا هو الجمهور.
شهدت مشكلة تصميم حلول NLP لمشاكل كلمة الرياضيات (MWP) نشاط بحثي مستمر ومكاسب ثابتة في دقة الاختبار. نظرا لأن الحلفل الموجودين يحققون أداء عاليا على مجموعات البيانات القياسية للمستوى الابتدائي الذي يحتوي على مشاكل في الكلمات الحسابية المجهولة الأولى، إلا أن هذه المشكلات غالبا ما يتم حلها في كثير من الأحيان "مع الجزء الأكبر من الاهتمام بالبحث إلى MWPS أكثر تعقيدا. في هذه الورقة، قصرنا انتباهنا إلى اللغة الإنجليزية MWPs تدرس في الصفوف الأربعة والأقل. نحن نقدم دليلا قويا على أن وحدات MWP الحالية تعتمد على الاستدلال الضحلة لتحقيق أداء عال في مجموعات البيانات القياسية. تحقيقا لهذه الغاية، نظهر أن حفلات MWP التي لا تملك الوصول إلى السؤال المطلوب في MWP، لا يزال بإمكانك حل جزء كبير من MWPS. وبالمثل، فإن النماذج التي تعالج mwps كحقيبة من الكلمات يمكن أن تحقق أيضا دقة عالية بشكل مدهش. علاوة على ذلك، نقدم مجموعة بيانات تحدي، Svamp، تم إنشاؤها من خلال تطبيق الاختلافات المختارة بعناية على الأمثلة التي تم أخذ عينات منها من مجموعات البيانات الحالية. إن أفضل الدقة التي تحققت بها النماذج الحديثة أقل بكثير على Svamp، وبالتالي إظهار الكثير لا يزال يتعين القيام به حتى لأبسط MWPS.
أصبحت بنية المحولات في كل مكان في مجال معالجة اللغات الطبيعية.لتفسير النماذج القائمة على المحولات، تم تحليل أنماط اهتمامها على نطاق واسع.ومع ذلك، فإن بنية المحولات لا تتكون فقط من الاهتمام متعدد الأطراف؛يمكن أن تسهم مكونات أخرى أيضا في الأداء التدريج ي المحولات.في هذه الدراسة، مددنا نطاق تحليل المحولات من أنماط الانتباه فقط إلى كتلة الاهتمام بأكمله، أي اهتمام متعدد الأطراف، والاتصال المتبقي، وتطبيع الطبقة.يوضح تحليل النماذج اللغوية المقصودة للمحولات أن التفاعل الرمزي إلى الرمز المميز الذي يؤديه عن طريق الاهتمام له تأثير أقل على التمثيل الوسيط مما كان مفترض سابقا.توفر هذه النتائج تفسيرات جديدة بديهية للتقارير القائمة؛على سبيل المثال، تم تجاهل أنماط الانتباه المستفادة لا تؤثر سلبا على الأداء.رموز تجاربنا متاحة للجمهور.
فهم اللغة الطبيعية مهمة مهمة في أنظمة الحوار الحديثة.يصبح أكثر أهمية مع التمديد السريع لوظيفة أنظمة الحوار.في هذا العمل، نقدم نهجا لتعلم تحويل الصفر بالرصاص لمهام تصنيف النوايا وملء الفتحات بناء على نماذج اللغة المدربة مسبقا.نستخدم نماذج محكسية عميقة تغذيها مع الكلام وأوصاف اللغة الطبيعية لحالة المستخدم للحصول على embeddings.ثم تستخدم هذه المدينات من قبل شبكة عصبية صغيرة لإنتاج تنبؤات للحصول على الاحتمالات النية والفتحة.تحقق هذه الهندسة المعمارية نتائج جديدة من الفنون الجديدة في سيناريوهات صفرية بالرصاص.واحدة هي لغة واحدة تتكيف مع المهارات الجديدة وآخر هو التكيف عبر اللغات.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا