ترغب بنشر مسار تعليمي؟ اضغط هنا

هل توفر التقليمات المحلية نماذج خاصة بالمهام للتعلم بفعالية؟

Does local pruning offer task-specific models to learn effectively ?

156   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

أدت الحاجة إلى نشر النماذج المدربة مسبقا على نطاق واسع على أجهزة الحافة بموجب موارد حسابية محدودة إلى بحث كبير لضغط هذه النماذج الكبيرة. ومع ذلك، تم إيلاء اهتمام أقل لضغط النماذج الخاصة المهام. في هذا العمل، نحقق في أساليب مختلفة من التقليم غير منظم في نماذج ذات المهام الخاصة بمهام تحليل المعنويات المستندة إلى جانب جانب الجسيم. على وجه التحديد، نقوم بتحليل الاختلافات في ديناميات التعلم من النماذج ذات التذرية باستخدام تقنيات التقليم القياسية لتحقيق شبكات متفرقة عالية الأداء. نقوم بتطوير فرضية لإظهار فعالية التشذيب المحلي على التقليم العالمي بالنظر إلى نموذج سي إن إن بسيط. في وقت لاحق، نحن نستخدم الفرضية لإظهار فعالية النموذج الحديثة المعادلة مقارنة بالنموذج المفرط من أحدث المعلمات تحت إعدادتين، أول النظر في الأساس لنفس المهمة المستخدمة ل توليد الفرضية، أي استخراج الآراء والثاني النظر في مهمة مختلفة، أي تحليل المعرفات. كما نقدم المناقشة المتعلقة بتعميم الفرضية التقليم.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

في هذا العمل، نقوم بتصميم نموذج نهاية إلى نهاية لتوليد الشعر على أساس نماذج لغة الشبكة العصبية المتكررة مشروطة (RNN) تهدف إلى تعلم الميزات الأسلوبية (طول القصيدة والشعور والتقاليد والتقييم) من الأمثلة وحدها.نعرض أن هذا النموذج يتعلم بنجاح معنى "الطول والشعور، حيث يمكننا التحكم في ذلك لتوليد أطول أو أقصر بالإضافة إلى قصائد أكثر إيجابية أو أكثر سلبية.ومع ذلك، فإن النموذج لا يفهم الظواهر الصوتية مثل الجناس والقفا، ولكن بدلا من ذلك يغمر الإشارات الإحصائية ذات المستوى المنخفض.الأسباب المحتملة تشمل حجم بيانات التدريب، وتردد منخفض نسبيا وصعوبة هذه الظواهر الصربية وكذلك التحيزات النموذجية.نظهر أن نماذج GPT-2 الأخيرة لديها أيضا مشاكل في تعلم ظواهر soblexical مثل القافية من الأمثلة وحدها.
ينقل الناس نيتهم ​​وموقفهم من خلال الأساليب اللغوية للنص الذي يكتبونه. في هذه الدراسة، نقوم بتحقيق كملات المعجم في المعجم عبر الأساليب طوال العدسين: الإدراك البشري وأهمية كلمة الجهاز، لأن الكلمات تختلف في قوة الإشارات الأسلوبية التي تقدمها. لجمع ملصق ات التصور البشري، فإننا نرفع مجموعة بيانات جديدة وطنانيرد، على رأس مجموعات بيانات النمط القياسي. لدينا عمال الحشد يسلط الضوء على الكلمات التمثيلية في النص الذي يجعلهم يعتقدون أن النص لديه الأنماط التالية: المداراة والشعور والتهدفة وخمس أنواع العاطفة. بعد ذلك بمقارنة هذه الملصقات البشرية هذه ذات أهمية نصية مشتقة من مصنف ذو طراز ذو ضبط صقل شهير مثل بيرت. تظهر نتائجنا أن بيرتف غالبا ما يجد كلمات المحتوى غير ذات صلة بالأناقة المستهدفة ككلمات مهمة تستخدم في التنبؤ بالأناقة، لكن البشر لا ينظرون بنفس الطريقة على الرغم من أن بعض الأساليب (مثل الشعور والإيجابي والفرح) الإنسان والجهاز الكلمات المحددة تشترك في تداخل كبير لبعض الأساليب.
أصبحت نماذج لغة كبيرة مسببة الاحترام باستخدام بنية الشبكة العصبية المحولات هي منهجية مهيمنة للعديد من مهام معالجة اللغة الطبيعية، مثل الإجابة على الأسئلة، تصنيف النص، غموض معنى الكلمة، إكمال النص والترجمة الآلية. عادة ما تضم ​​مئات الملايين من المعلم ات، فإن هذه النماذج تقدم أداء حديثة، ولكن على حساب قابلية الترجمة الشفوية. آلية الاهتمام هي العنصر الرئيسي لشبكات المحولات. نقوم بتقديم Attviz، وهي طريقة لاستكشاف اهتمام الذات في شبكات المحولات، والتي يمكن أن تساعد في تفسير وتصحيح الأخطاء من النماذج المدربة من خلال إظهار الجمعيات بين الرموز النصية في تسلسل الإدخال. نظهر أن خطوط أنابيب التعلم العميق الحالية يمكن استكشافها مع Attviz، والذي يوفر تصورات رواية لرؤوس الانتباه وتجميعها. نفذنا الأساليب المقترحة في مجموعة أدوات عبر الإنترنت ومكتبة دون اتصال. باستخدام أمثلة من تحليل الأخبار، نوضح كيف يمكن استخدام ATVIZ للتفتيش والحدوث على فهم أفضل ما تعلمه النموذج.
بعد أن يواجه نموذج التسلسل العصبي رمزية غير متوقعة، هل يمكن التنبؤ بسلوكه؟ نظهر أن نماذج Language RNN وحول المحولات تعرض تعميم مهيكلا متسقا في سياقات خارج التوزيع. نبدأ بإدخال نماذجين مثالية من التعميم في التنبؤ التالي بالكلمة التالية: نموذج سياق معج مي يعمل فيه التعميم يتفق مع الكلمة الأخيرة الملاحظة، ونموذج السياق النحامي الذي يتوافق فيه التعميم مع الهيكل العالمي للمدخلات. في تجارب باللغة الإنجليزية والفنلندية والماندرين ولغات منتظمة عشوائية، نوضح أن نماذج اللغة العصبية محبط بين هذين الشكلين من التعميم: تنبؤاتها تقارب جيدا من خلال مزيج خطي من التوزيعات التنبؤية المعجمية والنوعية. ثم نوضح ذلك، في بعض اللغات، يتوسط الضوضاء شكلين التعميم: الضوضاء المطبقة على رموز المدخلات تشجع التعميم النحوي، في حين أن الضوضاء في تمثيلات التاريخ تشجع التعميم المعجمي. أخيرا، نقدم شرحا نظريا أوليا لهذه النتائج من خلال إثبات أن سلوك الاستيفاء الملحوظ متوقع في النماذج الخطية من السجل مع هيكل ارتباط ميزة معينة. تساعد هذه النتائج في تفسير فعالية خططيتين تنظيمي شعبيتين وإظهار أن جوانب تعميم نموذج التسلسل يمكن فهمها والسيطر عليها.
يحقق نماذج اللغة المستردة مسبقا للمحولات نتائج رائعة في العديد من معايير NLU المعروفة. ومع ذلك، في حين أن أساليب المحاكمات مريحة للغاية، فهي مكلفة من حيث الوقت والموارد. هذا يدعو إلى دراسة تأثير حجم البيانات المحدد على معرفة النماذج. نستكشف هذا التأث ير على القدرات النحوية لروبيرتا، باستخدام النماذج المدربة على الأحجام الإضافية لبيانات النص الخام. أولا، نستخدم التحقيقات الهيكلية النحوية لتحديد ما إذا كانت الطرز المحددة على مزيد من البيانات ترمز كمية أعلى من المعلومات النحوية. ثانيا، نقوم بإجراء تقييم نصلي مستهدف لتحليل تأثير حجم البيانات المحدد على أداء التعميم النحوي للنماذج. ثالثا، قارنا أداء النماذج المختلفة على ثلاثة تطبيقات المصب: وضع علامات جزء من الكلام وتحليل التبعية وإعادة صياغة الحساب. نحن نتكمل دراستنا بتحليل مفاضلة التكلفة - المنفعة للتدريب مثل هذه النماذج. تظهر تجاربنا أنه في حين أن النماذج المحددة على مزيد من البيانات ترمز المزيد من المعرفة النحوية وأداء أفضل في تطبيقات المصب، فإنها لا تقدم دائما أداء أفضل عبر الظواهر الأساسية المختلفة وتأتي بتكلفة مالية وبيئية أعلى.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا