مجردة ⚠ تحتوي هذه الورقة على مطالبات ونواتج النماذج المسيئة في الطبيعة. عند التدريب على الزحف الكبيرة وغير المرفقة من الإنترنت، تلتقط نماذج اللغة وإعادة إنتاج جميع أنواع التحيزات غير المرغوب فيها التي يمكن العثور عليها في البيانات: أنها غالبا ما تولد لغة عنصرية أو جنسية أو عنيفة أو غير سامة. نظرا لأن النماذج الكبيرة تتطلب ملايين الأمثلة التدريبية لتحقيق أداء جيد، فمن الصعب منعها تماما من التعرض لمثل هذا المحتوى. في هذه الورقة، نوضح أولا في العثور على إيجاد مفاجئ: تعترف نماذج اللغة المحددة، إلى درجة كبيرة، تحيزاتهم غير المرغوب فيها وسمية المحتوى الذي ينتجونه. نشير إلى هذه القدرة كتشخيص الذاتي. بناء على هذا النتيجة، نقترح خوارزمية فك تشفير ذلك، بالنظر إلى وصف نصي فقط للسلوك غير المرغوب فيه، يقلل من احتمال إنتاج نموذج لغة ينتج نصا مشكلة. نشير إلى هذا النهج كدخل ذاتي. لا يعتمد الدخل الذاتي على قوائم Word يدويا يدويا، ولا يتطلب الأمر أي بيانات تدريبية أو تغييرات على معلمات النموذج. في حين أننا لا نقضاء بأي حال من الأحوال قضية نماذج اللغة التي تولد نص متحيز، فإننا نعتقد أن نهجنا خطوة مهمة في هذا الاتجاه
Abstract ⚠ This paper contains prompts and model outputs that are offensive in nature. When trained on large, unfiltered crawls from the Internet, language models pick up and reproduce all kinds of undesirable biases that can be found in the data: They often generate racist, sexist, violent, or otherwise toxic language. As large models require millions of training examples to achieve good performance, it is difficult to completely prevent them from being exposed to such content. In this paper, we first demonstrate a surprising finding: Pretrained language models recognize, to a considerable degree, their undesirable biases and the toxicity of the content they produce. We refer to this capability as self-diagnosis. Based on this finding, we then propose a decoding algorithm that, given only a textual description of the undesired behavior, reduces the probability of a language model producing problematic text. We refer to this approach as self-debiasing. Self-debiasing does not rely on manually curated word lists, nor does it require any training data or changes to the model's parameters. While we by no means eliminate the issue of language models generating biased text, we believe our approach to be an important step in this direction.1
المراجع المستخدمة
https://aclanthology.org/
الشبكات العصبية هي طريقة أحدثت لآلة التعلم للعديد من المشاكل في NLP.نجاحهم في الترجمة الآلية ومهام NLP الأخرى هي ظاهرة، لكن قابلية الترجمة الشفوية تحديا.نريد معرفة كيف تمثل الشبكات العصبية معنى.من أجل القيام بذلك، نقترح فحص توزيع المعنى في تمثيل المس
تم اعتبار تحيز التعرض مشكلة مركزية لنماذج اللغة التراجعية التلقائية (LM). وهذا يدعي أن المعلم يجبر سيؤدي إلى تشويه جيل وقت الاختبار تدريجيا بسبب تباين توليد التدريب. على الرغم من أن الكثير من الخوارزميات قد اقترحت تجنب التغلب على المعلم وبالتالي تخفي
تصحيح الأخطاء المجردة نموذج تعلم الجهاز أمر صعب للغاية حيث يشمل الخطأ عادة بيانات التدريب وعملية التعلم.يصبح هذا أكثر صعوبة بالنسبة لطراز التعلم العميق غير المشفح إذا لم يكن لدينا أدنى فكرة عن كيفية عمل النموذج بالفعل.في هذا الاستطلاع، نراجع الأوراق
نحن نحلل 6.7 مليون وثائق قانون القضية لتحديد وجود التحيز بين الجنسين في نظامنا القضائي. نجد أن طرق كشف التحيز الحالية في NLP غير كافية لتحديد التحيز بين الجنسين في قاعدة بيانات القوانين الخاصة بنا واقتراح نهج بديل. نظهر أن النتائج غير المتسقة للخوارز
من المفترض أن يتحدث Chatbots المجال المفتوح بحرية مع البشر دون أن يقتصر على موضوع أو مهمة أو مجال. ومع ذلك، فإن حدود و / أو محتويات المحادثات المفتوحة ليست واضحة. لتوضيح حدود الانفتاح "، نقوم بإجراء دراستين: أولا، نقوم بتصنيف أنواع أحداث الكلام" واجه