تم اعتبار تحيز التعرض مشكلة مركزية لنماذج اللغة التراجعية التلقائية (LM). وهذا يدعي أن المعلم يجبر سيؤدي إلى تشويه جيل وقت الاختبار تدريجيا بسبب تباين توليد التدريب. على الرغم من أن الكثير من الخوارزميات قد اقترحت تجنب التغلب على المعلم وبالتالي تخفيف تحيز التعرض، إلا أن هناك ضئيل من العمل الذي يظهر مدى خطورة مشكلة تحيز التعرض في الواقع. في هذا العمل، نركز على مهمة توليد اللغة المفتوح العضوية، اقترح المقاييس لتحديد تأثير تحيز التعرض في جوانب الجودة والتنوع والاتساق. الحدس الرئيسي الخاص بنا هو أنه إذا قمت بإطعام بادئات بيانات الحقيقة الأرضية (بدلا من البادئات الناتجة عن النموذج نفسه) في النموذج واطلب من مواصلة الجيل، يجب أن يصبح الأداء أفضل بكثير لأن التناقض في توليد التدريب في البادئة إزالة. يتم إجراء التقييمات التلقائية والإنسانية في تجاربنا. على عكس الاعتقاد الشعبي بتحيز التعرض، نجد أن التشويه الناجم عن تناقض البادئة محدود، ولا يبدو أنه تدريجي خلال الجيل. علاوة على ذلك، يكشف تحليلنا عن قدرة مثيرة للاهتمام للانكماش الذاتي ل LM، والتي نفترض أنها تكافؤها لتكون مواجهة الآثار الضارة من تحيز التعرض.
Exposure bias has been regarded as a central problem for auto-regressive language models (LM). It claims that teacher forcing would cause the test-time generation to be incrementally distorted due to the training-generation discrepancy. Although a lot of algorithms have been proposed to avoid teacher forcing and therefore alleviate exposure bias, there is little work showing how serious the exposure bias problem actually is. In this work, we focus on the task of open-ended language generation, propose metrics to quantify the impact of exposure bias in the aspects of quality, diversity, and consistency. Our key intuition is that if we feed ground-truth data prefixes (instead of prefixes generated by the model itself) into the model and ask it to continue the generation, the performance should become much better because the training-generation discrepancy in the prefix is removed. Both automatic and human evaluations are conducted in our experiments. On the contrary to the popular belief in exposure bias, we find that the the distortion induced by the prefix discrepancy is limited, and does not seem to be incremental during the generation. Moreover, our analysis reveals an interesting self-recovery ability of the LM, which we hypothesize to be countering the harmful effects from exposure bias.
References used
https://aclanthology.org/
Internet search affects people's cognition of the world, so mitigating biases in search results and learning fair models is imperative for social good. We study a unique gender bias in image search in this work: the search images are often gender-imb
In this paper, we present the joint contribution of Unbabel and IST to the WMT 2021 Metrics Shared Task. With this year's focus on Multidimensional Quality Metric (MQM) as the ground-truth human assessment, our aim was to steer COMET towards higher c
Abstract Text classification is a widely studied problem and has broad applications. In many real-world problems, the number of texts for training classification models is limited, which renders these models prone to overfitting. To address this prob
Abstract ⚠ This paper contains prompts and model outputs that are offensive in nature. When trained on large, unfiltered crawls from the Internet, language models pick up and reproduce all kinds of undesirable biases that can be found in the data: Th
Due to efficient end-to-end training and fluency in generated texts, several encoder-decoder framework-based models are recently proposed for data-to-text generations. Appropriate encoding of input data is a crucial part of such encoder-decoder model