ترغب بنشر مسار تعليمي؟ اضغط هنا

الهجمات الخادعة ضد شبكات التعلم العميق

Adversarial Attacks on Deep Learning Systems

2038   0   140   0 ( 0 )
 تاريخ النشر 2018
والبحث باللغة العربية
 تمت اﻹضافة من قبل محمد زاهر عيروط




اسأل ChatGPT حول البحث

يعتبر التعلم العميق القلب النابض للذكاء الصنعي في السنوات الأخيرة، وفي ظل تراوح تطبيقاته بين السيارات ذاتية القيادة وصولًا إلى التحليلات الطبية وغير ذلك، وقدرته على حل المشاكل المعقدة متفوقًا على الإنسان في الكثير من الأحيان، بدا أننا وصلنا للحل النهائي لمشاكل الذكاء الصنعي، لكن ظهور الهجمات الخادعة أصبح العائق الأساسي لتوظيف التطبيقات التي تعتمد على التعلم العميق كبديل للإنسان، وأصبح التطبيقات الأخيرة تحت المجهر لدراسة قدرتها على منع هذه الهجمات، نستعرض في هذا البحث تعريف الهجوم الخادع وطرقه بشكل عام، ثم نتطرق إلى تطبيقين محورين يمكن مهاجمتهما من خلاله ونعرض كيف نتصدى لهذه الهجمات، مرورًا بمقارنة النماذج الإحصائية مع الإنسان وكون الهجمات الخادعة جزءًا أساسيًا من الأنظمة التي تعتمد على المعطيات للقيام بمهامها.


ملخص البحث
يعتبر التعلم العميق القلب النابض للذكاء الصنعي في السنوات الأخيرة، حيث يستخدم في تطبيقات متنوعة مثل السيارات ذاتية القيادة والتحليلات الطبية. ومع ذلك، فإن الهجمات الخادعة أصبحت عائقًا كبيرًا أمام توظيف هذه التقنيات بشكل آمن. تتناول هذه الورقة البحثية تعريف الهجمات الخادعة، طرق تنفيذها، وتأثيرها على الأنظمة المختلفة، مع التركيز على الأنظمة الطبية. كما تستعرض الورقة استراتيجيات الدفاع المختلفة ضد هذه الهجمات، مثل الدفاع التفاعلي والدفاع الاستباقي، وتقدم أمثلة على الهجمات الخادعة المادية وكيفية التصدي لها. الهدف من البحث هو توضيح خطورة الهجمات الخادعة وضرورة تطوير استراتيجيات دفاعية فعالة لحماية الأنظمة التي تعتمد على التعلم العميق.
قراءة نقدية
دراسة نقدية: تقدم هذه الورقة البحثية نظرة شاملة ومفصلة حول الهجمات الخادعة ضد شبكات التعلم العميق، وتستعرض العديد من الأمثلة والتطبيقات العملية. ومع ذلك، يمكن القول أن الورقة تفتقر إلى بعض التفاصيل العملية حول كيفية تنفيذ الدفاعات المقترحة بشكل فعلي في الأنظمة الحقيقية. كما أن التركيز الكبير على الجانب النظري قد يجعل من الصعب على القراء غير المتخصصين فهم بعض النقاط المعقدة. بالإضافة إلى ذلك، يمكن تحسين الورقة بإضافة دراسات حالة عملية توضح فعالية الدفاعات المقترحة في مواجهة الهجمات الخادعة في بيئات حقيقية.
أسئلة حول البحث
  1. ما هي الهجمات الخادعة ولماذا تعتبر مشكلة في أنظمة التعلم العميق؟

    الهجمات الخادعة هي تعديلات طفيفة على مدخلات النموذج تؤدي إلى مخرجات خاطئة. تعتبر مشكلة لأنها تهدد دقة وموثوقية الأنظمة التي تعتمد على التعلم العميق في تطبيقات حساسة مثل السيارات ذاتية القيادة والتحليلات الطبية.

  2. ما هي استراتيجيات الدفاع الرئيسية ضد الهجمات الخادعة التي تناولتها الورقة؟

    تناولت الورقة استراتيجيتين رئيسيتين للدفاع ضد الهجمات الخادعة: الدفاع التفاعلي، الذي يعتمد على اكتشاف الهجمات ورفضها، والدفاع الاستباقي، الذي يعتمد على تدريب النموذج باستخدام أمثلة عدائية لتحسين متانته.

  3. كيف يمكن للهجمات الخادعة التأثير على الأنظمة الطبية المعتمدة على التعلم العميق؟

    يمكن للهجمات الخادعة التأثير بشكل كبير على الأنظمة الطبية من خلال تقديم تشخيصات خاطئة، مما قد يؤدي إلى قرارات علاجية غير صحيحة. هذا يبرز الحاجة إلى تطوير استراتيجيات دفاعية فعالة لحماية هذه الأنظمة.

  4. ما هي التحديات الرئيسية في تطبيق الدفاعات ضد الهجمات الخادعة في البيئات الحقيقية؟

    تشمل التحديات الرئيسية في تطبيق الدفاعات ضد الهجمات الخادعة في البيئات الحقيقية صعوبة تنفيذ الدفاعات بشكل فعال دون التأثير على أداء النظام، والحاجة إلى معالجة الظروف البيئية المختلفة، مثل التغيرات في الإضاءة وزوايا الرؤية.


المراجع المستخدمة
Kevin Eykholt, Ivan Evtimov, Earlence Fernandes, Bo Li, Amir Rahmati, Chaowei Xiao, Atul Prakash, Tadayoshi Kohno: “Robust Physical-World Attacks on Deep Learning Models”, 2017; arXiv:1707.08945.
Wieland Brendel, Jonas Rauber: “Decision-Based Adversarial Attacks: Reliable Attacks Against Black-Box Machine Learning Models”, 2017; arXiv:1712.04248.
Samuel G. Finlayson, Isaac S. Kohane: “Adversarial Attacks Against Medical Deep Learning Systems”, 2018; arXiv:1804.05296.
Naveed Akhtar: “Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey”, 2018; arXiv:1801.00553.
Ian J. Goodfellow, Jonathon Shlens: “Explaining and Harnessing Adversarial Examples”, 2014; arXiv:1412.6572.
Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville: “Generative Adversarial Networks”, 2014; arXiv:1406.2661.
Pouya Samangouei, Maya Kabkab: “Defense-GAN: Protecting Classifiers Against Adversarial Attacks Using Generative Models”, 2018; arXiv:1805.06605.
قيم البحث

اقرأ أيضاً

الشبكات العصبية العميقة عرضة للهجمات الخصومة، حيث اضطراب صغير في المدخل يغير التنبؤ النموذجي.في كثير من الحالات، يمكن أن تخدع المدخلات الخبيثة عن قصد لنموذج واحد نموذج آخر.في هذه الورقة، نقدم الدراسة الأولى للتحقيق بشكل منهجي في تحويل أمثلة الخصومة ب شكل منهجي لنماذج تصنيف النص واستكشاف كيفية تأثير مختلف العوامل، بما في ذلك بنية الشبكة، نظام التكتلات، وإدماج الكلمات، والقدرة النموذجية، على تحويل أمثلة الخصومة.بناء على هذه الدراسات، نقترح خوارزمية وراثية للعثور على مجموعة من النماذج التي يمكن استخدامها لتحفيز أمثلة الخصومة لخداع جميع النماذج الحالية تقريبا.تعكس هذه الأمثلة المخدرة عيوب عملية التعلم وتحيز البيانات في مجموعة التدريب.أخيرا، نحن نستمد قواعد استبدال الكلمات التي يمكن استخدامها لتشخيصات النموذج من هذه الأمثلة الخصومة.
نظرا لقوتها العظيمة في النمذجة البيانات غير الإقليدية مثل الرسوم البيانية أو الفتحات، فقد فتحت التعلم العميق على تقنيات الرسم البياني (I.E.، Graph Newerations Nearials (GNNS)) باب جديد لحل مشاكل NLP ذات الصلة بالرسوم البيانية الصعبة. لقد شهدت زيادة ا لمصالح في تطبيق التعلم العميق على تقنيات الرسم البياني إلى NLP، وقد حققت نجاحا كبيرا في العديد من مهام NLP، بدءا من مهام التصنيف مثل تصنيف الجملة، ووضع العلامات الدلالية الدلالية واستخراج العلاقات، إلى مهام التوليد مثل الترجمة الآلية، والسؤال توليد وتلخيص. على الرغم من هذه النجاحات، لا تزال التعلم العميق على الرسوم البيانية ل NLP لا يزال العديد من التحديات، بما في ذلك تحويل بيانات تسلسل النص الأصلي تلقائيا إلى بيانات منظم بياني للغاية، والبيانات المعقدة النمذجة بشكل فعال تتضمن تعيين بين المدخلات المستندة إلى الرسم البياني وبيانات الإخراج غير المنظمة الأخرى تسلسل، الأشجار، وبيانات الرسم البياني مع أنواع متعددة في كل من العقد والحواف. سيتغطي هذا البرنامج التعليمي مواضيع ذات صلة ومثيرة للاهتمام على تطبيق التعلم العميق على تقنيات الرسم البياني إلى NLP، بما في ذلك بناء الرسم البياني التلقائي ل NLP، وتمثيل الرسوم البياني تعلم النماذج القائمة على NLP، والمخططات المتقدمة GNN (على سبيل المثال، Graph2Seq و Graph2Tree و Graph2Graph) ل NLP تطبيقات GNNS في مهام NLP المختلفة (مثل الترجمة الآلية، وتوليد اللغة الطبيعية، واستخراج المعلومات والتحليل الدلالي). بالإضافة إلى ذلك، سيتم تضمين جلسات التدريب العملي للتطبيق العملي لمساعدة الجمهور على زيادة الخبرة العملية في تطبيق GNNS لحل مشاكل NLP الصعبة باستخدام مكتبة المصدر المفتوحة التي تم تطويرها مؤخرا - Graph4NLP، أول مكتبة للباحثين والممارسين لسهولة الاستخدام من GNNS مهام NLP المختلفة.
بنيت خوارزميات التعمية الحديثة بالاعتماد على الفرضية الآتية: «تعتمد الطرائق التقليدية في تحليـل المعميات (التحليل الخطي، التحليل التفاضلي،.....) على خصائص احتمالية تجعل أمـن المعمـي يـزداد بشكل أسي مع عدد دورات المعمي». لذلك فهذه المعميات ليس لها ا لمناعة المطلوبـة ضـد الهجمـات الجيرية التي أصبحت أقوى بعد تطوير خوارزمية XSL .في هذا البحث سوف نقدم بعض الطرائق لرفع مناعة المعمي AES ضد الهجمات الجبرية ثم سندرس تأثير هذا التعديل في مناعة المعمي.
مكنت نماذج اللغة العصبية العميقة مثل بيرت التطورات الأخيرة في العديد من مهام معالجة اللغة الطبيعية. ومع ذلك، نظرا للجهد والتكلفة الحاسوبية المشاركة في التدريب المسبق لها، يتم إدخال هذه النماذج عادة فقط لعدد صغير من لغات الموارد عالية الوزن مثل اللغة الإنجليزية. في حين تتوفر نماذج متعددة اللغات التي تغطي أعدادا كبيرة من اللغات، فإن العمل الحديث يشير إلى أن التدريب أحادي الأحادي يمكن أن ينتج عن نماذج أفضل، وفهمنا للمفاضرة بين التدريب الأحادي وغير اللغوي غير مكتمل. في هذه الورقة، نقدم خط أنابيب بسيطة وأتمتة بالكامل لإنشاء نماذج بيرت الخاصة باللغة من البيانات من بيانات ويكيبيديا وإدخال 42 من هذه النماذج الجديدة، والأكثر من اللازم لغات حتى الآن تفتقر إلى نماذج اللغة العصبية العميقة المخصصة. نقوم بتقييم مزايا هذه النماذج باستخدام اختبارات Cloze و Autify Parser على بيانات التبعيات العالمية، والأداء المتناقض مع النتائج باستخدام طراز Bert (Mbert) متعدد اللغات. نجد أن نماذج WikiBert المقدمة حديثا تفوقت Mbert في اختبارات Cloze لجميع اللغات تقريبا، وأن uDify باستخدام نماذج Wikibert تفوق المحلل باستخدام Mbert في المتوسط، مع توضح الطرز الخاصة باللغة تحسين أداء محسنة بشكل كبير لبعض اللغات، ولكن تحسين محدود أو تحسين انخفاض في الأداء للآخرين. تتوفر جميع الطرق والنماذج المقدمة في هذا العمل تحت التراخيص المفتوحة من https://github.com/turkunlp/wikibert.
أظهر العمل الحديث مدى ضعف مصنف النصوص الحديثة للهجمات الخصومة العالمية، والتي هي تسلسل مدخلات غير مرغقة من الكلمات المضافة إلى النص المصنوع من قبل المصنفين. على الرغم من أن تكون ناجحة، فإن تسلسل الكلمات المنتجة في هذه الهجمات غالبا ما تكون غير رسمية ويمكن تمييزها بسهولة عن النص الطبيعي. نقوم بتطوير هجمات عدائية تظهر أقرب إلى عبارات اللغة الإنجليزية الطبيعية وحتى الآن أنظمة التصنيف عند إضافتها إلى المدخلات الحميدة. نحن نستفيد من AutoNCoder المنعصنة (ARAE) لتوليد المشغلات واقتراح بحث يستند إلى التدرج يهدف إلى زيادة فقدان تنبؤ التنبؤ بالتنبؤ في المصب. تقلل هجماتنا بشكل فعال دقة النموذج على مهام التصنيف مع كونها أقل تحديدا من النماذج السابقة وفقا لمقاييس الكشف التلقائي والدراسات البشرية. هدفنا هو إثبات أن الهجمات المشنة يمكن أن تكتشف أكثر صعوبة مما كان يعتقد سابقا وتمكين تطوير الدفاعات المناسبة.
التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا