ترغب بنشر مسار تعليمي؟ اضغط هنا

المنفرد المنفرد: بناء روبوتات المهام على نطاق واسع مع التعلم النقل والتدريس الجهاز

Soloist: Building Task Bots at Scale with Transfer Learning and Machine Teaching

257   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

مجردة نحن نقدم طريقة جديدة، منفردا، 1 التي تستخدم التعلم نقل وتدريس الجهاز لبناء روبوتات المهام على نطاق واسع. نقوم بمعلمات أنظمة الحوار الموجهة نحو المهام المعيارية الكلاسيكية باستخدام نموذج لغة تراجع تلقائي يستند إلى المحولات، والتي تضم وحدات حوار مختلفة في نموذج عصبي واحد. نحن قبل التدريب مسبقا، على برج الحوار غير المتجانس، نموذج توليد الاستجابة المتطلم، الذي يمكن أن يؤدي إلى إنشاء ردود حوار حول أهداف المستخدم ومعرفة العالم الحقيقي لإنجاز المهمة. يمكن تكييف النموذج المدرب مسبقا بكفاءة لإنجاز مهام جديدة مع حفنة من مربعات الحوار الخاصة بمهام المهام عبر تدريس الجهاز، حيث يتم إنشاء عينات التدريب من قبل معلمي البشر يتفاعلون مع النظام. تبين التجارب أن (ط) ينشئ المنفرد من المنازل من من من بين الفن في معايير الحوار الموجهة نحو المهام المدروسة جيدا، بما في ذلك Camrest676 و Mulotwoz؛ (2) في إعدادات الطاقة الدقيقة القليلة، يتفوق المنفر المنفرد بشكل كبير على الطرق الحالية؛ (3) استخدام التدريس الآلي يقلل بشكل كبير من تكلفة وضع العلامات للضبط الجميل. تتوفر النماذج والأدوات المدربة مسبقا في HTTPS://aka.ms/Soloist.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

توضح هذه الورقة نهجنا للمهمة المشتركة على الترجمة ذات الجهاز متعدد اللغات على نطاق واسع في المؤتمر السادس حول الترجمة الآلية (WMT-21).في هذا العمل، نهدف إلى بناء نظام ترجمة متعددة اللغات واحدا مع فرضية أن تمثيل عالمي عبر اللغة يؤدي إلى أداء ترجمة متع ددة اللغات بشكل أفضل.نحن نقدم استكشاف أساليب الترجمة الخلفي المختلفة من الترجمة الثنائية إلى الترجمة متعددة اللغات.يتم الحصول على أداء أفضل من خلال طريقة أخذ العينات المقيدة، والتي تختلف عن اكتشاف الترجمة الثنائية الثدية.علاوة على ذلك، نستكشف أيضا تأثير المفردات ومقدار البيانات الاصطناعية.والمثير للدهشة أن الحجم الأصغر من المفردات أداء أفضل، وتقدم بيانات اللغة الإنجليزية النائية واسعة النطاق تحسنا متواضعا.لقد أرسلنا إلى كل من المهام الصغيرة وتحقيق المركز الثاني.
نقدم نتائج المهمة الأولى على الترجمة ذات الجهاز متعدد اللغات على نطاق واسع.تتكون المهمة على التقييم المتعدد إلى العديد من النماذج الفردية عبر مجموعة متنوعة من اللغات المصدر والمستهدفة.هذا العام، تتألف المهمة على ثلاثة إعدادات مختلفة: (1) المهمة الصغي رة 1 (لغات أوروبا الوسطى / الجنوبية الشرقية)، (2) المهمة الصغيرة 2 (لغات جنوب شرق آسيا)، و (3) مهمة كاملة (كل 101 × 100 زوج أزواج).استخدمت جميع المهام DataSet Flores-101 كمعيار التقييم.لضمان طول العمر من مجموعة البيانات، لم يتم إصدار مجموعات الاختبار علنا وتم تقييم النماذج في بيئة خاضعة للرقابة على Dynabench.كان هناك ما مجموعه 10 فرق مشاركة للمهام، بما مجموعه 151 من العروض النموذجية المتوسطة و 13 نماذج نهائية.تظهر نتائج هذا العام تحسنا كبيرا على خطوط الأساس المعروفة مع +17.8 بلو ل Task-Task2، +10.6 للمهمة الكاملة و +3.6 للمهمة الصغيرة 1.
أظهرت نماذج الترجمة الآلية غير التلقائية (NAT) تسريعا كبيرا للاستدلال، لكنها تعاني من دقة ترجمة أدنى. الممارسة الشائعة لمعالجة المشكلة هي نقل الترجمة الآلية التلقائي (في) معرفة نماذج NAT، على سبيل المثال، مع تقطير المعرفة. في هذا العمل، نحن نفترض وال تحقق تجريبيا من أن ترميز اللوائح في و NAT التقاط خصائص لغوية مختلفة من الجمل المصدر. لذلك، نقترح اعتماد التعلم متعدد المهام لنقل المعرفة إلى نماذج NAT من خلال تقاسم التشفير. على وجه التحديد، نأخذ النموذج في المهمة المساعدة لتعزيز أداء نموذج NAT. تظهر النتائج التجريبية على مجموعات بيانات WMT14 EN-DE و WMT16 EN-RO أن المهمة المتعددة المقترحة NAT تحقق تحسينات كبيرة على نماذج الأساس NAT. علاوة على ذلك، تؤكد الأداء الموجود على مجموعات بيانات WMT19 و WMT20 و WMT20 واسعة النطاق اتساق طريقةنا المقترحة. بالإضافة إلى ذلك، توضح النتائج التجريبية أن لدينا NAT متعددة المهام لدينا مكملة لتقطير المعرفة، وسيلة نقل المعرفة القياسية لل NAT.
توضح هذه الورقة نظام الترجمة متعددة الاستخدامات على نطاق واسع ل WMT 2021. نشارك في المسار الصغير 2 في خمسة لغات جنوب شرق آسيا، والثلاثين الاتجاهات: الجاوية، الإندونيسية، الملايو، التاغالوغية، التاميل، الإنجليزية.نحن نستخدم أساسا إلى الأمام / الترجمة إلى الوراء، واختيار بيانات داخل المجال، وقطاع المعرفة، والضبط الجماعي التدريجي من الطراز المدرب مسبقا فلوريس 101.نجد أن الترجمة إلى الأمام / الخلفي يحسن بشكل كبير من نتائج الترجمة، واختيار البيانات والضبط الجمنيات التدريجية فعالة بشكل خاص أثناء مجال التكيف، في حين أن تقطير المعرفة يجلب تحسين أداء طفيف.أيضا، يستخدم متوسط المتوسط لتحسين أداء الترجمة بناء على هذه الأنظمة.يحقق نظامنا النهائي درجة بلو متوسط قدره 28.89 عبر ثلاثين اتجاهين في مجموعة الاختبار.
لا يزال مخصصات المجال في التحليل النحوي تحديا كبيرا.نحن نعلم مسألة عدم توازن البيانات بين النطاق داخل المجال والخروج من النطاق يستخدم عادة للمشكلة.نحدد تكيف النطاق كمشكلة تعليمية متعددة المهام (MTL)، والتي تتيح لنا تدريب اثنين من المحللين، واحدة لكل منها الرئيسية.تظهر نتائجنا أن نهج MTL مفيد لنقش Treebank الأصغر.بالنسبة لأكبر Treebank، نحتاج إلى استخدام وزن الخسارة من أجل تجنب انخفاض في الأداء المهمة الفردية.من أجل تحديد درجة توهت البيانات، فإن اختلال البيانات بين مجطتين واختلافات المجال تؤثر على النتائج، ونحن نقوم أيضا بتجربة اثنين من Treebanks غير المتوازن داخل المجال وإظهار أن وزن الخسارة يحسن أيضا الأداء في إعداد المجال.نظرا لارتداء الخسارة في MTL، يمكننا تحسين النتائج لكل من المحللين.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا