ترغب بنشر مسار تعليمي؟ اضغط هنا

تحسين نموذج اللغة المعروفة للطابع النموذجي عن طريق الاحتفاظ بمثابة تشفير الأحرف تحت هندسة Skip-Gram

Improving Character-Aware Neural Language Model by Warming up Character Encoder under Skip-gram Architecture

79   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

يمكن أن نطاقات اللغة العصبية التي تدركها القبض على العلاقة بين الكلمات من خلال استغلال معلومات مستوى الطابع وهي فعالة بشكل خاص للغات مع التشكل الغني.ومع ذلك، عادة ما تكون هذه النماذج متحيزة باتجاه المعلومات من أشكال السطح.لتخفيف هذه المشكلة، نقترح طريقة بسيطة وفعالة لتحسين نموذج اللغة العصبي على الحرف من خلال إجبار ترميز الأحرف لإنتاج شرائح قائمة على الكلمات تحت بنية Skip-Gram في خطوة الاحماء دون بيانات تدريب إضافية.نظرا لإيبربريكيا أن نموذج اللغة العصبي الإدراك على الطابع الناتج يحقق تحسينات واضحة لدرجات الحيرة على لغات متنوعة من النطبية، والتي تحتوي على العديد من الكلمات منخفضة التردد أو غير المرئي.

المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

تم إثبات التحسينات الأخيرة المثيرة للإعجاب في NLP، على أساس نجاح نماذج اللغة العصبية السياقية، في معظمها على معظم زوجين من اللغات عالية الموارد. بناء لغة البناء، وبشكل أعم، لا تزال أنظمة NLP للغات غير الموحدة والموارد منخفضة مهمة صعبة. في هذا العمل، نحن fo- cus على اللغة العربية العامية من الشمال الأفريقي العربية المكتوبة باستخدام امتداد من البرنامج النصي اللاتيني، يسمى Narabizi، في الغالب على وسائل التواصل الاجتماعي والرسائل. في هذا السيناريو المنخفض للموارد مع عرض البيانات مستوى كبير من التباين، نقوم بمقارنة أداء المصب لنموذج لغة قائمة على الطابع على وضع علامات جزء من الكلام والاعتماد على نماذج أحادية اللغات وغير اللغوية. نظرا لأن نموذجا مقرا له على الطابع المدرب على جمل 99 ألفا فقط من Narabizi ويتم تغريمه على خرق صغير من هذه اللغة يؤدي إلى أداء قريبة من تلك التي تم الحصول عليها مع نفس الهندسة المعمارية المدربة مسبقا على نماذج كبيرة متعددة اللغات وأنتجة. تؤكد هذه النتائج على مجموعة بيانات أكبر بكثير من المحتوى الناتج عن المستخدم الفرنسي الصاخب، نجح بأن هذه النماذج اللغوية القائمة على الأحرف يمكن أن تكون أصول ل NLP في مجموعة التباين المنخفضة واللغة العالية.
تسهل المعلومات اللغوية الخشنة، مثل الكيانات أو العبارات المسماة، التعلم التمثيل بشكل كاف في التدريب المسبق. تعمل السابقة بشكل أساسي على توسيع هدف نمذجة لغة بيرت الملثمين (MLM) من إخفاء الرموز الفردية إلى تسلسلات متجاورة من الرموز N. نقول أن هذه الطري قة اخفاء هذه المتخلل تهمل طرازات التبعيات داخل الإتصال والمعلومات المشتركة بين المعلومات اللغوية المحبوبة الخشنة. كديل، نقترح Ernie-Gram، وهي طريقة إخفاء N-Gram بشكل صريح لتعزيز دمج المعلومات المحبوسة الخشنة في ما قبل التدريب. في Ernie-Gram، N-Grams ملثمين وتوقعت مباشرة باستخدام هويات N-Gram واضحة بدلا من تسلسلات متجاورة من الرموز N. علاوة على ذلك، توظف Ernie-Gram نموذج مولد للعينة من هويات N-Gram المعقولة كقنعة اختيارية N-Gram وتوقعها في كل من الأخلاق الخشنة والحبوب الدقيقة لتمكين تنبؤات N-Gram الشاملة ونمذجة العلاقة. نحن نسترجع تدريبات Ernie-Gram على النصوص باللغة الإنجليزية والصينية ونغمة الجميلة في 19 مهام المصب. تظهر النتائج التجريبية أن Ernie-Gram يتفوق على نماذج مسبقة التدريب السابقة مثل XLNet و Roberta بهامش كبير، وتحقق نتائج قابلة للمقارنة مع الطرق الحديثة. تم إصدار رموز المصدر والنماذج المدربة مسبقا في https://github.com/paddlepaddle/ernie.
وصف النظم التي طورها مجلس البحوث القومي كندا للمهمة المشتركة لتحديد اللغة اليوراليك في حملة التقييم الفاديم 2021.قمنا بتقييم طريقتين مختلفتين لهذه المهمة: مصنف احتمالية استغلال حرف 5 غرامات فقط كميزات، وشبكة عصبية قائمة على الطابع مدربة مسبقا من خلال الإشراف الذاتي، ثم ضبطها على مهمة تحديد اللغة.تحولت الطريقة السابقة إلى أداء أفضل، مما يؤدي إلى الشك على فائدة أساليب التعلم العميق لتحديد اللغة، حيث لم يتمكنوا بعد بشكل مقنع وتفوقوا باستمرار على خوارزميات التصنيف أكثر بساطة وأقل تكلفة استغلال ميزات N-Gram.
كشف الجانب هو مهمة أساسية في التعدين في الرأي.تستخدم الأشغال السابقة كلمات البذور إما كعظمون من نماذج الموضوع، كمراسين لتوجيه تعلم الجوانب، أو كميزات من صفوف الأنفاق.تقدم هذه الورقة طريقة رواية متشرفة ضعيفة لاستغلال كلمات البذور للكشف عن الجانب بناء على بنية تشفير.شرائح خرائط التشفير والجوانب في مساحة تضمين منخفضة الأبعاد.الهدف هو تقريب التشابه بين القطاعات والجوانب في مساحة التضمين وإشطاه الحقيقة الأرضية الناتجة عن كلمات البذور.ويقترح وظيفة موضوعية للقبض على عدم اليقين في التشابه الأساسي للحقيقة.الطريقة التي تتفوقها على العمل السابق على العديد من المعايير في المجالات المختلفة.
تستكشف هذه الورقة استمرار القصة التي يحركها الشخصية، حيث تظهر القصة من خلال سرد الشخصيات الأول والثاني بالإضافة إلى الحوار - - - - تتطلب النماذج لتحديد اللغة التي تتفق مع شخصيات الشخصية وعلاقاتها مع أحرف أخرى التالية وتقدم القصة. نحن نفترض أن نموذج م تعدد المهام الذي يتدرب على حوار الأحرف بالإضافة إلى معلومات علاقة الشخصية يحسن استمرار القصة المستندة إلى المحولات. تحقيقا لهذه الغاية، نقوم بتوسيع دور محصنة الدوران والتنين الحاسم (Rameshkumar و Bailey، 2020) --- تتكون من نصوص الحوار من الأشخاص الذين يخبرون بشكل تعاظم قصة أثناء لعب لعبة الأبراج المحصنة والتنينات --- مع العلاقات المستخرجة تلقائيا بين كل زوج من الشخصيات التفاعل وكذلك شخصياتهم. تقدم سلسلة من الوضوح دليلا على فرضيتنا، حيث أظهر أن نموذجنا متعدد المهام لدينا باستخدام علاقات الأحرف يحسن دقة استمرار القصة على خطوط خطوط خطوط خطوط خطوط طويلة.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا