وقد مكن سهولة الوصول إلى المحولات المدربين مسبقا المطورين إلى الاستفادة من نماذج اللغة واسعة النطاق لبناء تطبيقات مثيرة لمستخدميها.في حين توفر هذه النماذج المدربة مسبقا نقاط انطلاق مريحة للباحثين والمطورين، فهناك القليل من النظر في التحيزات المجتمعية التي تم التقاطها داخل هذه النموذج المخاطرة بإدانة التحيزات العنصرية والجنسية وغيرها من التحيزات الضارة عند نشر هذه النماذج على نطاق واسع.في هذه الورقة، نحقق في تنظيم النوع الاجتماعي والعنصري عبر النماذج اللغوية المدربة مسبقا في كل مكان، بما في ذلك GPT-2، XLNet، Bert، روبرتا، ألبرت والتقطير.نحن نقيم التحيز داخل المحولات المدربة مسبقا باستخدام ثلاثة مقاييس: Weat، احتمال التسلسل، وتصنيف الضمير.نستنتج مع تجربة توضح عدم فعالية تقنيات تضمين الكلمات، مثل Weat، مما يشير إلى الحاجة إلى اختبار التحيز الأكثر قوة في المحولات.
The ease of access to pre-trained transformers has enabled developers to leverage large-scale language models to build exciting applications for their users. While such pre-trained models offer convenient starting points for researchers and developers, there is little consideration for the societal biases captured within these model risking perpetuation of racial, gender, and other harmful biases when these models are deployed at scale. In this paper, we investigate gender and racial bias across ubiquitous pre-trained language models, including GPT-2, XLNet, BERT, RoBERTa, ALBERT and DistilBERT. We evaluate bias within pre-trained transformers using three metrics: WEAT, sequence likelihood, and pronoun ranking. We conclude with an experiment demonstrating the ineffectiveness of word-embedding techniques, such as WEAT, signaling the need for more robust bias testing in transformers.
المراجع المستخدمة
https://aclanthology.org/
مجردة أن هذه الدراسة تنفذ تقييم جوهري منهجي للتمثيل الدلالي الذي تعلمته المحولات متعددة الوسائط المدربة مسبقا. يزعم هذه التمثيلات أنها غير ملائمة للمهمة وأظهرت للمساعدة في العديد من مهام اللغة والرؤية المصب. ومع ذلك، فإن المدى الذي يتماشى فيه مع الحد
الأمل هو جانب أساسي من استقرار الصحة العقلية والانتعاش في كل فرد في هذا العالم سريع المتغير.ستكون أي أدوات وأساليب تم تطويرها للكشف والتحليل وتوليد خطاب الأمل مفيدا.في هذه الورقة، نقترح نموذجا على اكتشاف الأمل في الأمل للكشف تلقائيا عن محتوى الويب ال
في هذه الورقة، نقترح تعريف وتعريفي من أنواع مختلفة من المحتوى النصي غير القياسي - يشار إليها عموما باسم الضوضاء "- في معالجة اللغة الطبيعية (NLP). في حين أن معالجة البيانات المسبقة هي بلا شك مهم بلا شك في NLP، خاصة عند التعامل مع المحتوى الذي تم إنشا
هل يمكن لصق Bert مدربة مسبقا بلغة واحدة و GPT لآخر لترجمة النصوص؟يؤدي التدريب للإشراف على الذات باستخدام بيانات أحادية الأونلينغ فقط إلى نجاح نماذج اللغة المدربة مسبقا (ملثمين) في العديد من مهام NLP.ومع ذلك، فإن ربط بيرت مباشرة كتشفير و GPT حيث أن وح
يتعين على نماذج اللغة المدربة مسبقا (PRLM) لإدارة وحدات الإدخال بعناية عند التدريب على نص كبير جدا مع مفردات تتكون من ملايين الكلمات. أظهرت الأعمال السابقة أن دمج معلومات المسيح على مستوى الأمان بشأن الكلمات المتتالية في التدريب المسبق يمكن أن تحسن أ