ترغب بنشر مسار تعليمي؟ اضغط هنا

بناء جملة النمذجة بشكل صريح في نماذج اللغة مع تحليل تدريجي و Oracle الديناميكي

Explicitly Modeling Syntax in Language Models with Incremental Parsing and a Dynamic Oracle

325   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

بناء الجملة أساسي في تفكيرنا حول اللغة.الفشل في التقاط هيكل لغة الإدخال قد يؤدي إلى مشاكل تعميم وتعامل معهم.في العمل الحالي، نقترح نموذجا جديدا للغة في مجال بناء الجملة: ذاكرة ترتيب سنوية (SOM).نماذج النموذج صراحة الهيكل مع محلل تدريجي وتحافظ على إعداد الاحتمالات الشرطي لطراز اللغة القياسية (من اليسار إلى اليمين).لتدريب المحلل التدريجي وتجنب تحيز التعرض، نقترح أيضا أوراكل ديناميكية جديدة، بحيث يكون SOM أكثر قوة لقرارات تحليل خاطئة.تظهر التجارب أن SOM يمكن أن يحقق نتائج قوية في نمذجة اللغة، والتحليل الإضافي، واختبارات التعميم النحوي أثناء استخدام معلمات أقل من النماذج الأخرى.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

تسهل المعلومات اللغوية الخشنة، مثل الكيانات أو العبارات المسماة، التعلم التمثيل بشكل كاف في التدريب المسبق. تعمل السابقة بشكل أساسي على توسيع هدف نمذجة لغة بيرت الملثمين (MLM) من إخفاء الرموز الفردية إلى تسلسلات متجاورة من الرموز N. نقول أن هذه الطري قة اخفاء هذه المتخلل تهمل طرازات التبعيات داخل الإتصال والمعلومات المشتركة بين المعلومات اللغوية المحبوبة الخشنة. كديل، نقترح Ernie-Gram، وهي طريقة إخفاء N-Gram بشكل صريح لتعزيز دمج المعلومات المحبوسة الخشنة في ما قبل التدريب. في Ernie-Gram، N-Grams ملثمين وتوقعت مباشرة باستخدام هويات N-Gram واضحة بدلا من تسلسلات متجاورة من الرموز N. علاوة على ذلك، توظف Ernie-Gram نموذج مولد للعينة من هويات N-Gram المعقولة كقنعة اختيارية N-Gram وتوقعها في كل من الأخلاق الخشنة والحبوب الدقيقة لتمكين تنبؤات N-Gram الشاملة ونمذجة العلاقة. نحن نسترجع تدريبات Ernie-Gram على النصوص باللغة الإنجليزية والصينية ونغمة الجميلة في 19 مهام المصب. تظهر النتائج التجريبية أن Ernie-Gram يتفوق على نماذج مسبقة التدريب السابقة مثل XLNet و Roberta بهامش كبير، وتحقق نتائج قابلة للمقارنة مع الطرق الحديثة. تم إصدار رموز المصدر والنماذج المدربة مسبقا في https://github.com/paddlepaddle/ernie.
حققت نماذج اللغة المدربة مسبقا نجاحا كبيرا على مجموعة واسعة من مهام NLP. ومع ذلك، فإن التمثيلات السياقية من النماذج المدربة مسبقا تحتوي على معلومات دلالية ومتنامية متشابكة، وبالتالي لا يمكن استخدامها مباشرة لاستخلاص مدينات جملة دلالية مفيدة لبعض المه ام. تقدم أزواج إعادة صياغة طريقة فعالة لتعلم التمييز بين الدلالات وبناء الجملة، حيث أنهم يشاركون بشكل طبيعي دلالات وغالبا ما يختلف في بناء جملة. في هذا العمل، نقدم Parabart، وهي جملة دلالية تضمين نموذج يتعلم تكديح دلالات ودليل بناء الجملة في مذكرات الجملة التي تم الحصول عليها بواسطة نماذج اللغة المدربة مسبقا. يتم تدريب PARABART على إجراء إعادة صياغة موجهة إلى بناء الجملة، استنادا إلى جملة مصدر تشترك في الدلالات مع إعادة صياغة الهدف، وشجرة تحليل تحدد بناء الجملة المستهدف. وبهذه الطريقة، يتعلم بارابارت تعليم التمثيل الدلالي والمنظمات النحوية من مدخلاتها مع تشفير منفصلة. تبين التجارب باللغة الإنجليزية أن بارابارت تتفوق على الأحكام التي تضم نماذج تضمينها على مهام التشابه الدلالي غير المعدل. بالإضافة إلى ذلك، نظير على أن نهجنا يمكن أن يؤدي إلى إزالة المعلومات النحوية بشكل فعال من تضمين الجملة الدلالية، مما يؤدي إلى متانة أفضل ضد الاختلاف النحوي على المهام الدلالية المصب.
تحظى طرازات اللغة واسعة النطاق (LMS) في كورسورا هائلة من النص، مثل GPT-2، هي مولدات نصية مفتوحة قوية. ومع ذلك، نظرا لأن الفحص المنهجي الخاص بنا يكشف، فمن لا يزال يمثل تحديا لهذه النماذج لتوليد ممرات طويلة طويلة متماسكة من النص (على سبيل المثال، 1000 رمز)، خاصة عند ضبط النماذج بشكل جيد إلى المجال المستهدف على كائن صغير. تندرج أساليب التخطيط السابقة عند إيلاء إيناء نص طويل في المجالات المختلفة. للتغلب على القيود، نقترح طريقة بسيطة ولكنها فعالة لتوليد النص بطريقة تقدمية، مستوحاة من خلال توليد الصور من أدنى مستوى إلى دقة عالية. تقوم طريقةنا أولا بإنتاج الكلمات الرئيسية للمحتوى الخاص بالمجال ومن ثم تقوم بتطريصها تدريجيا في مقاطع كاملة في مراحل متعددة. يسمح التصميم البسيط لنهجنا الاستفادة من LMS المحدد في كل مرحلة وتكييف فعال مع أي مجال مستهدف معين فقط مجموعة صغيرة من الأمثلة. نقوم بإجراء دراسة تجريبية شاملة مع مجموعة واسعة من مقاييس التقييم، وإظهار أن نهجنا يحسن بشكل كبير على LMS الكبيرة التي تم ضبطها بشكل كبير وأساليب التخطيط والمنشدة المختلفة من حيث الجودة وكفاءة العينات. يتحقق التقييم البشري أيضا أن أجيال النماذج لدينا أكثر متماسكة.
يدقق هذا البرنامج التعليمي أحدث التقدم التقني في التحليل النحوي ودور بناء الجملة في مهام معالجة اللغة الطبيعية المناسبة (NLP)، حيث يتمثل الترجمة الدلالية في الدورات الدلالية (SRL) والترجمة الآلية (MT) المهام التي لديهاكان دائما مفيدا من أدلة النحوية الإعلامية منذ فترة طويلة، على الرغم من أن التقدم من طرازات التعلم العميق المنتهي في النهاية يظهر نتائج جديدة.في هذا البرنامج التعليمي، سنقدم أولا الخلفية وأحدث التقدم المحرز في التحليل النحوي و SRL / NMT.بعد ذلك، سنلخص الأدلة الرئيسية حول التأثيرات النحوية على هذين المهامين المتعلقين، واستكشاف الأسباب وراء كل من الخلفيات الحسابية واللغوية.
يمكن أن تعكس القواط التي تحدث بشكل طبيعي، مثل الإجابة على شظايا لأسئلة اللغة الطبيعية والارتباطات التشعبية على صفحات الويب، الحد من الحدس النحامي البشري فيما يتعلق بحدود الجمل الفعلية.إن توفرهم والمراسلات التقريبية لبناء الجملة يجعلهم جذابا على أنها مصادر معلومات بعيدة لتدميرها في تحليل دائم غير مخالف.لكنهم صاخبة وغير كاملة.لمعالجة هذا التحدي، نقوم بتطوير فقدان منحدري من الأقواس الجزئي في التعلم.توضح التجارب أن نماذجنا الخاضعة للإشراف على نطاق واسع تدرب على البيانات الموجودة بشكل طبيعي قوسين أكثر دقة في حث الهياكل النحوية من النظم المنافسة غير المنفصلة.على English WSJ Corpus، تحقق نماذجنا درجة F1 غير قابلة للتحقيق من 68.9 لتحليل الدوائر الانتخابية.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا