مجردة ⚠ تحتوي هذه الورقة على مطالبات ونواتج النماذج المسيئة في الطبيعة. عند التدريب على الزحف الكبيرة وغير المرفقة من الإنترنت، تلتقط نماذج اللغة وإعادة إنتاج جميع أنواع التحيزات غير المرغوب فيها التي يمكن العثور عليها في البيانات: أنها غالبا ما تولد لغة عنصرية أو جنسية أو عنيفة أو غير سامة. نظرا لأن النماذج الكبيرة تتطلب ملايين الأمثلة التدريبية لتحقيق أداء جيد، فمن الصعب منعها تماما من التعرض لمثل هذا المحتوى. في هذه الورقة، نوضح أولا في العثور على إيجاد مفاجئ: تعترف نماذج اللغة المحددة، إلى درجة كبيرة، تحيزاتهم غير المرغوب فيها وسمية المحتوى الذي ينتجونه. نشير إلى هذه القدرة كتشخيص الذاتي. بناء على هذا النتيجة، نقترح خوارزمية فك تشفير ذلك، بالنظر إلى وصف نصي فقط للسلوك غير المرغوب فيه، يقلل من احتمال إنتاج نموذج لغة ينتج نصا مشكلة. نشير إلى هذا النهج كدخل ذاتي. لا يعتمد الدخل الذاتي على قوائم Word يدويا يدويا، ولا يتطلب الأمر أي بيانات تدريبية أو تغييرات على معلمات النموذج. في حين أننا لا نقضاء بأي حال من الأحوال قضية نماذج اللغة التي تولد نص متحيز، فإننا نعتقد أن نهجنا خطوة مهمة في هذا الاتجاه
Abstract ⚠ This paper contains prompts and model outputs that are offensive in nature. When trained on large, unfiltered crawls from the Internet, language models pick up and reproduce all kinds of undesirable biases that can be found in the data: They often generate racist, sexist, violent, or otherwise toxic language. As large models require millions of training examples to achieve good performance, it is difficult to completely prevent them from being exposed to such content. In this paper, we first demonstrate a surprising finding: Pretrained language models recognize, to a considerable degree, their undesirable biases and the toxicity of the content they produce. We refer to this capability as self-diagnosis. Based on this finding, we then propose a decoding algorithm that, given only a textual description of the undesired behavior, reduces the probability of a language model producing problematic text. We refer to this approach as self-debiasing. Self-debiasing does not rely on manually curated word lists, nor does it require any training data or changes to the model's parameters. While we by no means eliminate the issue of language models generating biased text, we believe our approach to be an important step in this direction.1
References used
https://aclanthology.org/
Neural networks are the state-of-the-art method of machine learning for many problems in NLP. Their success in machine translation and other NLP tasks is phenomenal, but their interpretability is challenging. We want to find out how neural networks r
Exposure bias has been regarded as a central problem for auto-regressive language models (LM). It claims that teacher forcing would cause the test-time generation to be incrementally distorted due to the training-generation discrepancy. Although a lo
Abstract Debugging a machine learning model is hard since the bug usually involves the training data and the learning process. This becomes even harder for an opaque deep learning model if we have no clue about how the model actually works. In this s
We analyze 6.7 million case law documents to determine the presence of gender bias within our judicial system. We find that current bias detection methods in NLP are insufficient to determine gender bias in our case law database and propose an altern
Open-domain chatbots are supposed to converse freely with humans without being restricted to a topic, task or domain. However, the boundaries and/or contents of open-domain conversations are not clear. To clarify the boundaries of openness'', we cond