ترغب بنشر مسار تعليمي؟ اضغط هنا

تصحيح CBOW يؤدي وكذلك تخطي غرام

Corrected CBOW Performs as well as Skip-gram

66   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

ميكولوف وآخرون.(2013A) لاحظ أن تضمين كلمة كاجب مستمرة من الكلمات (CBOW) تميل إلى أشرطة Skip-Gram المعطفية (SG)، وتم الإبلاغ عن هذه النتيجة في أعمال لاحقة.نجد أن هذه الملاحظات مدفوعة بعدم هذه الاختلافات الأساسية في أهدافها التدريبية، ولكن على الأرجح على تطبيقات مراقبة الألعاب السلبية الخاطئة في المكتبات الشعبية مثل التنفيذ الرسمي و Word2VEC.C و Gensim.نظهر أنه بعد تصحيح الخلل في تحديث التدرج CBOW، يمكن للمرء أن يتعلم أن تضمين Word CBOW تنافس تماما مع SG على مختلف المهام الجوهرية والخارجية، بينما تكون عدة مرات أسرع في التدريب.

المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

إن القدرة على التباين في استخدام اللغة ضروري للمتحدثين لتحقيق أهدافهم المحادثة، على سبيل المثال عند الإشارة إلى الكائنات في البيئات المرئية.نقول أن التنوع لا ينبغي أن يكون على غرار كهدف مستقل في الحوار، ولكن يجب أن يكون نتيجة لذلك أو منتج ثاني لتوليد اللغة الموجهة نحو الأهداف.تم التحقيق في خطوط عمل مختلفة في توليد اللغة العصبية طرق فك تشفيرها لتوليد المزيد من الكلمات المتنوعة، أو زيادة المعلوماتية من خلال التفكير العملي.نربط تلك خطوط العمل وتحليل كيفية تأثير المنطق العملي أثناء فك التشفير على تنوع التسميات التوضيحية الناتجة عنها.نجد أن تعزيز التنوع نفسه لا يؤدي إلى تسهيلات مفيدة بشكل أكثر عمليا، لكن المنطق العملي يزيد من التنوع المعجمي.أخيرا، نناقش ما إذا كان الاستفادة من المعلوماتية بطرق غير معقولة بمرحلة ما بين اللغوي.
يمكن أن نطاقات اللغة العصبية التي تدركها القبض على العلاقة بين الكلمات من خلال استغلال معلومات مستوى الطابع وهي فعالة بشكل خاص للغات مع التشكل الغني.ومع ذلك، عادة ما تكون هذه النماذج متحيزة باتجاه المعلومات من أشكال السطح.لتخفيف هذه المشكلة، نقترح طر يقة بسيطة وفعالة لتحسين نموذج اللغة العصبي على الحرف من خلال إجبار ترميز الأحرف لإنتاج شرائح قائمة على الكلمات تحت بنية Skip-Gram في خطوة الاحماء دون بيانات تدريب إضافية.نظرا لإيبربريكيا أن نموذج اللغة العصبي الإدراك على الطابع الناتج يحقق تحسينات واضحة لدرجات الحيرة على لغات متنوعة من النطبية، والتي تحتوي على العديد من الكلمات منخفضة التردد أو غير المرئي.
يُستخدم البرتقال في تصنيع العصير، و ينتج عنه كَمّيات كبيرة من المنتجات الثانوية. تمﱠ تحليل التركيب الكيميائي و المقدرة على ربط الماء من قِبل قشور البرتقال، حيث أظهرت النتائج أنَّها تحتوي على كمّيات مرتفعة من الألياف الخام و المركبات الفينولية و مضادا ت الأكسدة و مقدرة عالية على ربط الماء. كما أُدخلت في تحضير البسكويت من خلطات تحوي نسباً مختلفةً من مطحون قشور البرتقال (5، 10، 15، 20، 25)% ثم تقييم الخصائص الفيزيائية و الحسّية و التركيب الكيميائي و الخصائص الريولوجية لهذه الخلطات. لم يُظهر التقييم الحسّي أي فروقات معنوية بين الشاهد و نسبة الإضافة 10% من مطحون قشور البرتقال، أمَّا من ناحية المؤشرات الفيزيائية أي القَطْر، و السماكة و معدَّل التمدُّد, فانخفض القَطْر و السماكة في البسكويت الحاوي عليها، بينما ارتفعت قيم معدَّل التمدُّد مع ارتفاع مستوياته المضافة. أوضحت النتائج أنَّ دمج مطحون قشور البرتقال بالبسكويت رفع نسبة الألياف الخام و الرماد و المحتوى الفينولي و المقدرة المضادة للأكسدة، و قلل من الكربوهيدرات. و أظهرت الخصائص الريولوجية لخلطات الدقيق ارتفاعاً في امتصاص الماء و الثباتية. خفَّضت إضافة ppm 40 من إنزيم الإكزيلينيز من قساوة العينات بشكل عام، كما خفَّضت قِيَمَ معدَّل التمدَّد مقارنة بعينة الشاهد غير المحتوية على الإنزيم. أظهرت نتائج التقييم الحسي قبولاً جيداً للبسكويت المحتوي على 10% مطحون قشور البرتقال سواءً مع استخدام إنزيم الإكزيلينيز أو بدونه.
تسهل المعلومات اللغوية الخشنة، مثل الكيانات أو العبارات المسماة، التعلم التمثيل بشكل كاف في التدريب المسبق. تعمل السابقة بشكل أساسي على توسيع هدف نمذجة لغة بيرت الملثمين (MLM) من إخفاء الرموز الفردية إلى تسلسلات متجاورة من الرموز N. نقول أن هذه الطري قة اخفاء هذه المتخلل تهمل طرازات التبعيات داخل الإتصال والمعلومات المشتركة بين المعلومات اللغوية المحبوبة الخشنة. كديل، نقترح Ernie-Gram، وهي طريقة إخفاء N-Gram بشكل صريح لتعزيز دمج المعلومات المحبوسة الخشنة في ما قبل التدريب. في Ernie-Gram، N-Grams ملثمين وتوقعت مباشرة باستخدام هويات N-Gram واضحة بدلا من تسلسلات متجاورة من الرموز N. علاوة على ذلك، توظف Ernie-Gram نموذج مولد للعينة من هويات N-Gram المعقولة كقنعة اختيارية N-Gram وتوقعها في كل من الأخلاق الخشنة والحبوب الدقيقة لتمكين تنبؤات N-Gram الشاملة ونمذجة العلاقة. نحن نسترجع تدريبات Ernie-Gram على النصوص باللغة الإنجليزية والصينية ونغمة الجميلة في 19 مهام المصب. تظهر النتائج التجريبية أن Ernie-Gram يتفوق على نماذج مسبقة التدريب السابقة مثل XLNet و Roberta بهامش كبير، وتحقق نتائج قابلة للمقارنة مع الطرق الحديثة. تم إصدار رموز المصدر والنماذج المدربة مسبقا في https://github.com/paddlepaddle/ernie.
يتم تدريب معظم أنظمة الترجمة الآلية المتزامنة (SIMT) وتقييمها في Offline Translation Corpora.نحن نقول أن أنظمة SIMT يجب تدريبها واختبارها على بيانات التفسير الحقيقي.لتوضيح هذه الحجة، نقترح مجموعة اختبار التفسير وإجراء تقييم واقعي ل Simt المدربة على ا لترجمات دون اتصال.نتائجنا، في الاختبار المحدد لدينا مع 3 أزواج لغة صغيرة الحجم الحالية، تسليط الضوء على الفرق من النتيجة حتى 13.83 بلو عند تقييم نماذج Simt على بيانات الترجمة الشفوية للترجمة.في غياب بيانات التدريب على الترجمة الشفوية، نقترح طريقة نقل نمط الترجمة إلى الترجمة إلى الترجمة (T2I) التي تسمح بتحويل الترجمات غير المتصلة حاليا إلى بيانات نمط الترجمة الشفوية، مما يؤدي إلى تحسن ما يصل إلى 2.8 بلو.ومع ذلك، لا تزال فجوة التقييم ملحوظة، ودعا إلى بناء تفسير واسع النطاق مناسبة بشكل أفضل لتقييم وتطوير أنظمة SIMT.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا