ترغب بنشر مسار تعليمي؟ اضغط هنا

التدريب الذاتي باستخدام قواعد قواعد القواعد لعدد قليل من طلقة NLU

Self-Training using Rules of Grammar for Few-Shot NLU

208   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

نتعامل مع مشكلة شبكات التدريب الذاتي ل NLU في بيئة الموارد المنخفضة --- عدد قليل من البيانات المسمى والكثير من البيانات غير المسماة. إن فعالية التدريب الذاتي هي نتيجة لزيادة مقدار البيانات التدريبية أثناء التدريب. ومع ذلك، يصبح أقل فعالية في إعدادات الموارد المنخفضة بسبب الملصقات غير الموثوقة المتوقعة بواسطة نموذج المعلم على البيانات غير المسبقة. تم استخدام قواعد القواعد، التي تصف الهيكل النحوي للبيانات، في NLU للحصول على شرح أفضل. نقترح استخدام قواعد القواعد في التدريب الذاتي كآلية وضع العلامات الزائفة أكثر موثوقية، خاصة عندما يكون هناك عدد قليل من البيانات المسمى. نقوم بتصميم خوارزمية فعالة تقوم ببناء وتوسيع قواعد قواعد اللغة دون تورط بشري. ثم ندمج القواعد المبنية كآلية وضع العلامات الزائفة في التدريب الذاتي. هناك سيناريوهات محتملة فيما يتعلق بتوزيع البيانات: غير معروف أو معروف في التدريب قبل التدريب. إننا نوضح تجريبيا أن نهجنا يتفوق بشكل كبير على الأساليب الحديثة في ثلاث مجموعات بيانات معيار لكل من السيناريوهات.

المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

تم اقتراح التعلم التلوي مؤخرا لتعلم النماذج والخوارزميات التي يمكن أن تعميمها من حفنة من الأمثلة.ومع ذلك، فإن تطبيقات التنبؤ الهيكلية والمهام النصية تشكل تحديات لخوارزميات التعلم التلوي.في هذه الورقة، نحن نطبق اثنين من خوارزميات التعلم التلوي، والشبك ات النموذجية والزواحف الزواحف، إلى عدد قليل من الرصاص التعرف على الكيان (NER)، بما في ذلك طريقة لإدماج نموذج اللغة قبل التدريب والحقول العشوائية الشرطية (CRF).نقترح خطة توليد المهام لتحويل مجموعات بيانات NER الكلاسيكية إلى إعداد القليل من الرصاص، لكل من التدريب والتقييم.باستخدام ثلاث مجموعات بيانات عامة، نظهر أن خوارزميات التعلم التلوي هذه تفوق خطاس بخبراء ذو صقل معقول.بالإضافة إلى ذلك، نقترح مزيجا جديدا من الشبكات النموذجية والزواحف.
تحقق هذه الورقة في فعالية التدريب المسبق لتصنيف قلة الطابع القليلة.في حين أن النماذج الحالية عادة ما تكون هناك مزيد من النماذج اللغوية السابقة لما قبل التدريب مثل Bert على كمية شاسعة من Corpus غير المسبق، فإننا نجد أنها فعالة للغاية وكفاءة ببساطة Bri te Tune Bert مع مجموعة صغيرة من الكلام المسمى من مجموعات البيانات العامة.على وجه التحديد، تقوم Brtt Tuning Berting ذات الصقل مع ما يقرب من 1000 من البيانات المسمى نموذجا مدربا مسبقا - Intentbert، والذي يمكن أن يتجاوز بسهولة أداء النماذج المدربة مسبقا الحالية للحصول على تصنيف قلة الطابع على النطاقات الجديدة مع دلائل مختلفة للغاية.تؤكد فعالية Intentbert المرتفعة من جدوى وعملية الكشف عن القلة القليلة، وتقترح قدرة تعميمها العالية عبر المجالات المختلفة أن مهام تصنيف النوايا قد تشارك هيكل أساسي مماثل، والتي يمكن تعلمها بكفاءة من مجموعة صغيرة من البيانات المسمى.يمكن العثور على شفرة المصدر في https://github.com/hdzhang-code/intentbert.
نظرا لأن تكلفة وضع العلامات للوحدات المختلفة في أنظمة الحوار الموجهة نحو المهام (TOD) باهظ الثمن، فإن التحدي الرئيسي هو تدريب وحدات مختلفة بأقل قدر من البيانات المسمى. أظهرت نماذج اللغة المدربة مسبقا مؤخرا، نتائج واعدة واعدة لعدد قليل من التعلم في TO D. في هذه الورقة، نرتند نهجا للتدريب الذاتي للاستفادة من بيانات الحوار غير المسبق الوفيرة لزيادة تحسين النماذج المدربة للدولة المدربة مسبقا في سيناريوهات تعليمية قليلة لأنظمة TOD. على وجه التحديد، نقترح نهجا للتدريب الذاتي أن تستلم البيانات الأكثر ثقة أكثر ثقة لتدريب نموذج طالب أقوى. علاوة على ذلك، يقترح تقنية تكبير نص جديد (GradaG) تدريب الطالب بشكل أفضل عن طريق استبدال الرموز غير الحاسمة باستخدام نموذج لغة ملثم. نقوم بإجراء تجارب مكثفة وتحليلات موجودة على أربع مهام المصب في TOD، بما في ذلك تصنيف النوايا وتتبع ولاية الحوار وتنبؤ قانون الحوار واختيار الاستجابة. توضح النتائج التجريبية أن نهج التدريب الذاتي المقترح باستمرار يحسن باستمرار النماذج المدربة مسبقا من أحدث (بيرت، TOD-BERT-BERT) عند توفر عدد صغير فقط من البيانات المسمى.
على الرغم من نجاحاتها الأخيرة في معالجة العديد من مهام NLP، لا تؤدي نماذج اللغة المدربة مسبقا على نطاق واسع وكذلك في إعدادات قليلة، حيث تتوفر حفنة من الأمثلة التدريبية فقط. لمعالجة هذا القصور، نقترح الطبقات، والتي تعني التدريب الذاتي مع تكبير المهمة، وهو نهج يبني على أفكارين رئيسيين للرافعة الفعالة من البيانات غير المسبقة. أولا، تستخدم Strata تكبير المهمة، وهي تقنية جديدة توليف كمية كبيرة من البيانات الخاصة بضبط المهمة المساعدة من النصوص المستهدفة من النصوص المستهدفة. ثانيا، تقوم الطبقات بإجراء تدريبات ذاتية من خلال زيادة ضبط النموذج القوي القوي الذي تم إنشاؤه بواسطة تكبير المهمة على توزيع واسع للبيانات المسمى الزائفة. توضح تجاربنا أن الطبقات يمكن أن تحسن بشكل كبير كفاءة عينة في 12 معيارا قليلة بالرصاص. بشكل ملحوظ، على DataSet SST-2 المعنويات، Strata، مع 8 أمثلة تدريبية فقط لكل فصل، تحقق نتائج قابلة للمقارنة للضبط بشكل جيد مع أمثلة تدريبية 67K. تكشف تحليلاتنا أن تكبير المهمة والتدريب الذاتي متكاملين وفعالا بشكل مستقل.
نقدم طريقة لتوليد قواعد تصحيح الأخطاء لأخطاء نمط النحوي في Corpus المتعلم المشرف.في نهجنا، يتم تحويل التعديلات المشروح في Corpus المتعلم إلى قواعد تحرير لتصحيح أخطاء الكتابة الشائعة.تتضمن الطريقة استخراج تلقائي لأنماط النحوية، والمواءمة التلقائية للأ نماط الخاطئة وأنماط صحيحة.في وقت التشغيل، يتم استخراج أنماط النحوية من الجمل الصحيحة النية، ويتم استرداد قواعد التصحيح من خلال محاذاة أنماط القواعد المستخرجة مع الأنماط الخاطئة.باستخدام الطريقة المقترحة، نولد 1499 قواعد تصحيح عالية الجودة تتعلق ب 232 كلمة رئيسية.يمكن استخدام الطريقة لمساعدة الطلاب ESL في تجنب الأخطاء النحوية، وتساعد المعلمين في تصحيح مقالات الطلاب.بالإضافة إلى ذلك، يمكن استخدام الطريقة في تجميع قواميس أخطاء التركيز وبناء أنظمة تصحيح الأخطاء القواعد.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا