ترغب بنشر مسار تعليمي؟ اضغط هنا

X-Metra-ADA: التكيف التعريفي لتعليم التعلم عبر Ling-Lingual إلى فهم اللغة الطبيعية والرد على الإجابة

X-METRA-ADA: Cross-lingual Meta-Transfer learning Adaptation to Natural Language Understanding and Question Answering

544   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

اكتسبت النماذج متعددة اللغات، مثل M-Bert و XLM-R، شعبية متزايدة، بسبب قدرات التعلم الصفرية عبر اللغات. ومع ذلك، فإن قدرة تعميمها لا تزال غير متسقة للغات المتنوعة من النطبية وعبر معايير مختلفة. في الآونة الأخيرة، حصل التعلم التعريفي على الاهتمام باعتباره تقنية واعدة لتعزيز تعلم النقل بموجب سيناريوهات الموارد المنخفضة: خاصة للتحويل عبر اللغات في فهم اللغة الطبيعية (NLU). في هذا العمل، نقترح X-Metra-ADA، ونهج تكيف التعلم التعبيري عبر Ling-Lingual من أجل NLU. نهجنا تتكيف مع MAML، نهج التعلم التلوي المستند إلى التحسين، لتعلم التكيف مع لغات جديدة. نقوم بتقييم إطار عملنا على نطاق واسع على اثنين من مهام NLU الصينية الصعبة: مربع حوار موجه نحو المهلة متعددة اللغات والإجابة على الأسئلة المتنوعة من الناحية النموذجية. نظرا لأن نهجنا يتفوق على ضجة ساذجة دقيقة، حيث وصل إلى أداء تنافسي على كلا المهام لمعظم اللغات. يكشف تحليلنا أن X-Metra-ADA يمكنه الاستفادة من البيانات المحدودة للتكيف بشكل أسرع.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

على الرغم من أن الإجابة على الأسئلة العامة قد تم استكشافها جيدا في السنوات الأخيرة، فإن الإجابة السؤال الزمنية هي مهمة لم تتلق أكبر قدر ممكن من التركيز.يهدف عملنا إلى الاستفادة من نهج شعبي المستخدم للاستفادة العامة الإجابة، والإجابة على استخراج، من أ جل العثور على إجابات للمسائل الزمنية في الفقرة.لتدريب نموذجنا، نقترح مجموعة بيانات جديدة، مستوحاة من الفريق، وهي سؤال من أحدث سؤال حول كوربوس، خصيصا خصيصا لتوفير معلومات زمنية غنية من خلال تكييف WikiWars، والتي تحتوي على العديد من الوثائق حول أعظم صراعات التاريخ.يوضح تقييمنا أن نموذج مطابق لنموذج التعلم العميق، وغالبا ما يستخدم في الإجابة على السؤال العام، يمكن تكييفه مع السؤال الزمني الرد، إذا قبلنا طرح الأسئلة التي يجب أن تكون إجاباتها موجودة مباشرة في النص.
تقدم هذه الورقة خط أنابيب التعلم شبه الإشرافه (SSL) على أساس إطار المعلم الطالب، الذي يزداد ملايين الأمثلة غير المستمرة لتحسين مهام فهم اللغة الطبيعية (NLU). نحن نبحث في سؤالين يتعلق باستخدام البيانات غير المسبقة في سياق الإنتاج SSL: 1) كيفية تحديد ع ينات من تجمع بيانات ضخمة غير مسفوقة مفيدة لتدريب SSL، و 2) كيف تؤثر البيانات المحددة على أداء حالة مختلفة من بين تقنيات SSL-Art. نقارن أربعة تقنيات SSL المستخدمة على نطاق واسع، والتسمية الزائفة (PL)، وقطاع المعرفة (KD)، والتدريب الخصم الافتراضي (VAT) والتدريب عبر الرؤية (CVT) جنبا إلى جنب مع طريقتين اختيار البيانات بما في ذلك الاختيار القائم على اللجنة وتحسين الأسفل اختيار مقرها. نحن ندرس مزيدا من فوائد وعيوب هذه التقنيات عند تطبيقها على تصنيف تكاليف النية (IC) ومهام التعرف على الكيان المسماة (NER)، وتوفير المبادئ التوجيهية التي تحدد عندما تكون كل من هذه الطرق مفيدة لتحسين أنظمة NLU كبيرة الحجم.
يعرض عدم وجود بيانات تدريبية تحديا كبيرا لتحجيم فهم اللغة المنطوقة لغات الموارد المنخفضة.على الرغم من أن نهج تكبير البيانات المختلفة قد اقترحت توليف البيانات التدريبية في لغات مستهدفة منخفضة الموارد، فإن مجموعات البيانات المعززة غالبا ما تكون صاخبة، وبالتالي تعيق أداء نماذج SLU.في هذه الورقة نركز على تخفيف الضوضاء في البيانات المعززة.نقوم بتطوير نهج تدريب Denosising.يتم تدريب نماذج متعددة مع البيانات التي تنتجها الطرق المعززة المختلفة.توفر هذه النماذج إشارات الإشراف لبعضها البعض.تظهر النتائج التجريبية أن أسلوبنا تتفوق على الحالة القائمة من الفن الموجودة بمقدار 3.05 و 4.24 نقطة مئوية عن مجموعات بيانات قياسية على التوالي.سيتم تقديم الرمز مفتوح المصادر على جيثب.
حققت نماذج التضمين السياقية المدربة مسبقا متعددة اللغات (Devlin et al.، 2019) أداء مثير للإعجاب على مهام نقل اللغات الصفرية.من خلال إيجاد استراتيجية ضبط الدقيقة الأكثر فعالية لضبط هذه النماذج على لغات الموارد عالية الموارد بحيث تقوم بتحويلاتها جيدا ل غات اللغات الصفرية هي مهمة غير تافهة.في هذه الورقة، نقترح رواية ميتا المحسن إلى طبقات ناعمة في طبقات النموذج المدرب مسبقا لتجميدها أثناء الضبط.نحن ندرب ميتا المحسن عن طريق محاكاة سيناريو نقل الصفر بالرصاص.تشير النتائج على الاستدلال اللغوي المتبادل اللغوي إلى أن نهجنا يحسن على خط الأساس البسيط للضبط و X-Maml (Nooralahzadeh et al.، 2020).
تفترض السؤال المتعدد اللغات الرد على المهام عادة أن الإجابات موجودة بنفس اللغة مثل السؤال. ومع ذلك، في الممارسة العملية، تواجه العديد من اللغات كل من ندرة المعلومات --- حيث تحتوي اللغات على عدد قليل من المقالات المرجعية --- واستاجةم المعلومات --- أين الأسئلة المرجعية المفاهيم من الثقافات الأخرى. يمتد هذا العمل سؤالا مفتوحا للاسترجاع الرد على الإعداد المتبادل الذي تمكن الأسئلة من لغة واحدة للإجابة على محتوى الإجابة من لغة أخرى. نحن نبني مجموعة بيانات واسعة النطاق تم بناؤها على أسئلة 40K تسعى للحصول على معلومات عبر 7 لغات غير الإنجليزية متنوعة لا يمكن أن تجد Tydi QA إجابات لغة نفسها. استنادا إلى هذه البيانات، نقدم إطار عمل، يسمى سؤالا عبر اللغات المفتوح استرجاع الإجابة (XOR QA)، الذي يتكون من ثلاث مهام جديدة تنطوي على استرجاع وثائق عبر اللغات من موارد متعددة اللغات والإنجليزية. نقوم بإنشاء خطوط الأساس مع أنظمة ترجمة من الآلة الحديثة ونماذج مسببة الاحتياطية عبر اللغات. تشير النتائج التجريبية إلى أن XOR QA هي مهمة صعبة سيسهل تطوير تقنيات جديدة للإجابة على الأسئلة متعددة اللغات. تتوفر بياناتنا ورمزنا في https://nlp.cs.washington.edu/xorqa/.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا