يختار من الأمثلة السلبية مهمة في تقدير الضوضاء المقاوم للضوضاء.تعمل الأعمال الحديثة على أن السلبيات الصلبة --- أعلى الأمثلة غير الصحيحة في النموذج --- فعالة في الممارسة العملية، لكنها تستخدم دون مبرر رسمي.نقوم بتطوير أدوات تحليلية لفهم دور السلبيات الصعبة.على وجه التحديد، نرى الخسارة المتعاقبة كقاعدة متحيزة لتدرج فقدان الانتروبين، وإظهار من الناحية النظرية والإيثابية التي تحدد التوزيع السلبي لتحقيق نتائج توزيع النموذج في تخفيض التحيز.ونحن نستمد أيضا شكل عام لوظيفة النتيجة التي تنص على العديد من البنيات المستخدمة في استرجاع النص.من خلال الجمع بين السلبيات الصعبة مع وظائف النتيجة المناسبة، نحصل على نتائج قوية على المهمة الصعبة الرامية إلى ربط الكيان الصفر.
The choice of negative examples is important in noise contrastive estimation. Recent works find that hard negatives---highest-scoring incorrect examples under the model---are effective in practice, but they are used without a formal justification. We develop analytical tools to understand the role of hard negatives. Specifically, we view the contrastive loss as a biased estimator of the gradient of the cross-entropy loss, and show both theoretically and empirically that setting the negative distribution to be the model distribution results in bias reduction. We also derive a general form of the score function that unifies various architectures used in text retrieval. By combining hard negatives with appropriate score functions, we obtain strong results on the challenging task of zero-shot entity linking.
المراجع المستخدمة
https://aclanthology.org/
في هذه الورقة، نقترح تعريف وتعريفي من أنواع مختلفة من المحتوى النصي غير القياسي - يشار إليها عموما باسم الضوضاء "- في معالجة اللغة الطبيعية (NLP). في حين أن معالجة البيانات المسبقة هي بلا شك مهم بلا شك في NLP، خاصة عند التعامل مع المحتوى الذي تم إنشا
تنطوي تصنيف الحبيبات الجميلة على التعامل مع مجموعات البيانات مع عدد أكبر من الفصول مع الاختلافات الدقيقة بينهما.إن توجيه النموذج إلى التركيز على أبعاد التفريق بين هذه الفئات القابلة للتصريفية بشكل شائع هو مفتاح تحسين الأداء في مهام الحبيبات الجميلة.ف
نماذج اللغات المدربة مسبقا بشكل جيد، أصبحت نماذج اللغات المدربة مسبقا من Suchas Bertboard المتصدرين المشترك في إدارة الديم عبر مختلف مهام NLP. نجاحها الأخير والاعتماد الواسع، هذه العملية غير مستقر عندما يكون هناك عدد صغير فقط من عينات التدريب المتاحة
نقدم نهج تدريب فعال لاسترجاع النص مع تمثيلات كثيفة تنطبق على تقطير المعرفة باستخدام نموذج تصنيف Colbert المتأخر للتفاعل.على وجه التحديد، نقترح نقل المعرفة من مدرس ثنائي التشفير إلى طالب عن طريق تقطير المعرفة من مشغل كولبير في Maxsim المعبير في منتج ن
تهدف وفرة العمل المنهجي إلى اكتشاف اللغة البغيضة والعنصرية في النص. ومع ذلك، تعوق هذه الأدوات عن مشاكل مثل اتفاقية معلقية منخفضة وتبقى غير متصل إلى حد كبير من العمل النظري في العرق والعنصرية في العلوم الاجتماعية. باستخدام التعليقات التوضيحية من 5188