تعلم مع تسميات مزعجة هو مشكلة تحديدية في التعلم المشروع بشكل ضعيف. في الأبحاث الحالية، يتم دائمًا النظر في الضوضاء المفتوحة كمسدسات للتعزيز، مماثلة للضوضاء المغلقة. في هذا البحث، نظرنا إلى أن التسميات المزعجة المفتوحة قد لا تكون سامة وأنها قد تساعد على المرونة ضد التسميات المزعجة الأصلية. مشحونين من هذه الملاحظات، نقترح تنظيمًا بسيطًا ولكن فعالًا عن طريق إدخال عينات مفتوحة مع تسميات مزعجة ديناميكية (ODNL) في التدريب. مع ODNL، يمكن استهلاك السعة الإضافية للشبكة العصبية بشكلٍ لا يتضرر من تعلم الأنماط من البيانات النظيفة. من خلال عدسة SGD noise، نظرنا إلى أن الضوضاء الناجمة عن طريقة عملنا هي عشوائية، خالية من الصراعات ومتحيزة، مما قد يساعد النموذج على التحقق من الحد الأدنى المستوي مع استقرار فائق وإجبار النموذج على إنتاج توقعات محايدة على المثال الخارج من التوزيع. يثبت النتائج التجريبية الشاملة على مجموعات بيانات المعيار مع أنواع مختلفة من التسميات المزعجة أن الطريقة المقترحة لا تحسن فقط أداء الخوارزميات المستقرة الموجودة، ولكنها تحقق تحسين كبير في مهام الكشف عن الخارج من التوزيع حتى في إعداد التسميات المزعجة.
Learning with noisy labels is a practically challenging problem in weakly supervised learning. In the existing literature, open-set noises are always considered to be poisonous for generalization, similar to closed-set noises. In this paper, we empirically show that open-set noisy labels can be non-toxic and even benefit the robustness against inherent noisy labels. Inspired by the observations, we propose a simple yet effective regularization by introducing Open-set samples with Dynamic Noisy Labels (ODNL) into training. With ODNL, the extra capacity of the neural network can be largely consumed in a way that does not interfere with learning patterns from clean data. Through the lens of SGD noise, we show that the noises induced by our method are random-direction, conflict-free and biased, which may help the model converge to a flat minimum with superior stability and enforce the model to produce conservative predictions on Out-of-Distribution instances. Extensive experimental results on benchmark datasets with various types of noisy labels demonstrate that the proposed method not only enhances the performance of many existing robust algorithms but also achieves significant improvement on Out-of-Distribution detection tasks even in the label noise setting.
Learning with the textit{instance-dependent} label noise is challenging, because it is hard to model such real-world noise. Note that there are psychological and physiological evidences showing that we humans perceive instances by decomposing them in
Robustness to label noise is a critical property for weakly-supervised classifiers trained on massive datasets. Robustness to label noise is a critical property for weakly-supervised classifiers trained on massive datasets. In this paper, we first de
Large datasets in NLP suffer from noisy labels, due to erroneous automatic and human annotation procedures. We study the problem of text classification with label noise, and aim to capture this noise through an auxiliary noise model over the classifi
Deep neural networks trained with standard cross-entropy loss memorize noisy labels, which degrades their performance. Most research to mitigate this memorization proposes new robust classification loss functions. Conversely, we propose a Multi-Objec
Collecting large-scale data with clean labels for supervised training of neural networks is practically challenging. Although noisy labels are usually cheap to acquire, existing methods suffer a lot from label noise. This paper targets at the challen