ترغب بنشر مسار تعليمي؟ اضغط هنا

التحديات في نماذج لغة السموم

Challenges in Detoxifying Language Models

408   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

تولد نماذج اللغة الكبيرة (LM) نص بطلاقة بشكل ملحوظ ويمكن تكييفها بكفاءة عبر مهام NLP. قياس وضمان جودة النص الذي تم إنشاؤه من حيث السلامة أمر ضروري لنشر LMS في العالم الحقيقي؛ تحقيقا لهذه الغاية، غالبا ما يعتمد العمل السابق على التقييم التلقائي لسمية LM. نناقش هذا النهج بشكل خطير، وتقييم العديد من استراتيجيات تخفيف السمية فيما يتعلق بالتقييم التلقائي والبشري، وتحليل عواقب التخفيف من السمية من حيث التحيز النموذجي وجودة LM. نوضح أنه في حين أن استراتيجيات التدخل الأساسية يمكن أن تتحسن بشكل فعال مقاييس تلقائية تم تأسيسها مسبقا على مجموعة بيانات Realtoxicyprompts، فإن هذا يأتي عند تكلفة انخفاض تغطية LM لكلا النصوص حول، ولهجات المجموعات المهمشة. بالإضافة إلى ذلك، نجد أن التصدير البشري غالبا ما يختلفون في درجات سمية تلقائية عالية بعد تدخلات تخفيض السمية القوي --- تسليط الضوء على مزيد من الفروق الدقيقة المشاركة في التقييم الدقيق لسامة LM.

المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

يجب أن تكون نماذج اللغة (LMS) آمنة وعادلة أن تكون مرتدة في الممارسة العملية.مع مراعاة السلامة، تم اقتراح العديد من تقنيات إزالة السموم (E.G.، Dathathri et al. 2020؛ Krause et al. 2020) تخفيف أجيال LM السامة.في هذا العمل، نظير على أن تقنيات إزالة السم وم هذه تؤذي الأسهم: أنها تقلل من فائدة LMS على اللغة التي تستخدمها المجموعات المهمشة (على سبيل المثال، إن العربية الأفريقية الأمريكية وهوية الهوية الأقلية).على وجه الخصوص، نقوم بتنفيذ التقييمات التلقائية والإنسانية لجودة جيل النص عندما تكون LMS مشروطة على المدخلات مع لهجات مختلفة ومعرفات المجموعة.نجد أن إزالة السموم يجعل LMS أكثر هشة من تحول التوزيع، خاصة في اللغة التي تستخدمها المجموعات المهمشة.نحدد أن هذه الإخفاقات تنبع من أساليب إزالة السموم التي تستغل ارتباطات زائفة في مجموعات بيانات السمية.بشكل عام، تسلط نتائجنا الضوء على التوتر بين إمكانية التحكم والموازنة التوزيعية ل LMS.
مجردة نقدم نموذج لغة يجمع بين شبكة عصبية حديثة كبيرة (I.E.، محول) مع مكون ذاكرة Episodic غير حدودي غير رسمي في بنية متكاملة.يستخدم نموذجنا سياق موسع قصير الأجل من خلال التخزين المؤقت للدول المخفية المحلية - - مماثلة لذاكرة محول-XL --- وعلى المدى الطو يل الأجل من خلال استرجاع مجموعة من أقرب رموز جار في كل ساعة عملية تجريفية.نقوم بتصميم وظيفة Gating للجمع بين مصادر معلومات متعددة لتقديم التنبؤ.تتيح هذه الآلية للطراز استخدام السياق المحلي أو الذاكرة قصيرة الأجل أو الذاكرة الطويلة الأجل (أو أي مزيج منهم) على أساس مخصص حسب السياق.تظهر تجارب مجموعات بيانات النمذجة القائمة على الكلمة القائمة على الكلمة فعالية طريقةنا المقترحة مقارنة مع خطوط الأساس القوية.
نحن التحقيق في نماذج لغة المحولات المدربة مسبقا لسد الاستدلال.نقوم أولا بالتحقيق في رؤوس الاهتمام الفردي في بيرت ومراقبة أن رؤساء الاهتمام في طبقات أعلى تركز بشكل بارز على سد العلاقات داخل المقارنة مع الطبقات المنخفضة والمتوسطة، وكذلك عدد قليل من رؤس اء اهتمامات محددة يركزون باستمرار على سد.الأهم من ذلك، نحن نفكر في نماذج اللغة ككل في نهجنا الثاني حيث يتم صياغة دقة سد العسرة كمهمة تتنبئة رمزية مثيرة للمثنين (من اختبار Cloze).تنتج صياغتنا نتائج متفائلة دون أي ضبط جيد، مما يشير إلى أن نماذج اللغة المدربة مسبقا تلتقط بشكل كبير في سد الاستدلال.يوضح تحقيقنا الإضافي أن المسافة بين المداعين - السابقة وسوء السياق المقدمة إلى النماذج اللغوية تلعب دورا مهما في الاستدلال.
أصبحت نماذج اللغة متعددة اللغات المدربة مسبقا كتلة مبنى مهمة في معالجة اللغة الطبيعية متعددة اللغات.في الورقة الحالية، نحقق في مجموعة من هذه النماذج لمعرفة مدى نقل المعرفة على مستوى الخطاب عبر اللغات.يتم ذلك بتقييم منهجي على مجموعة أوسع من مهام مستوى الخطاب مما تم تجميعه مسبقا.نجد أن عائلة XLM-Roberta من نماذج تظهر باستمرار أفضل أداء، من خلال نماذج أحادية جيدة جيدة في وقت واحد ومهينة القليل نسبيا في إعداد طلقة صفرية.تشير نتائجنا أيضا إلى أن التقطير النموذجي قد تؤذي قدرة النقل عبر اللغات من تمثيل الجملة، في حين أن الاختلاف اللغوي على الأكثر تأثير متواضع.نأمل أن يكون جناح اختبارنا، الذي يغطي 5 مهام مع ما مجموعه 22 لغة في 10 أسر متميزة، بمثابة منصة تقييم مفيدة للأداء متعدد اللغات في مستوى الجملة وما بعدها.
كان التقدم المحرز الأخير في نمذجة اللغة مدفوعة ليس فقط بالتقدم في البنيات العصبية، ولكن أيضا من خلال تحسين الأجهزة والتحسين.في هذه الورقة، نؤيد نموذج اللغة الاحتمالية العصبية (NPLM) من بنغيو وآخرون.(2003)، والتي تسلسل ببساطة تضمين كلمة داخل نافذة ثاب تة ويمرر النتيجة من خلال شبكة تغذية إلى الأمام للتنبؤ بالكلمة التالية.عند القياس حتى الأجهزة الحديثة، يؤدي هذا النموذج (على الرغم من قيودها العديدة) أفضل بكثير مما كان متوقعا عن معايير نموذج اللغة على مستوى Word.يكشف تحليلنا أن NPLM يحقق حيرة أقل من محول الأساس مع سياقات مدخلات قصيرة ولكن تكافح للتعامل مع تبعيات طويلة الأجل.مستوحاة من هذه النتيجة، نقوم بتعديل المحول عن طريق استبدال طبقة انتباهي أول مع طبقة التسلسل المحلية في NPLM، مما يؤدي إلى انخفاض حيرة صغيرة ولكنها ثابتة عبر مجموعات بيانات نمذجة لغة مستوى الكلمات.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا