ترغب بنشر مسار تعليمي؟ اضغط هنا

ميكولوف وآخرون.(2013A) لاحظ أن تضمين كلمة كاجب مستمرة من الكلمات (CBOW) تميل إلى أشرطة Skip-Gram المعطفية (SG)، وتم الإبلاغ عن هذه النتيجة في أعمال لاحقة.نجد أن هذه الملاحظات مدفوعة بعدم هذه الاختلافات الأساسية في أهدافها التدريبية، ولكن على الأرجح ع لى تطبيقات مراقبة الألعاب السلبية الخاطئة في المكتبات الشعبية مثل التنفيذ الرسمي و Word2VEC.C و Gensim.نظهر أنه بعد تصحيح الخلل في تحديث التدرج CBOW، يمكن للمرء أن يتعلم أن تضمين Word CBOW تنافس تماما مع SG على مختلف المهام الجوهرية والخارجية، بينما تكون عدة مرات أسرع في التدريب.
الكشف عن السخري مهم بالنسبة للعديد من مهام NLP مثل تحديد المعنويات في مراجعات المنتج وملاحظات المستخدم والمنتديات عبر الإنترنت.إنها مهمة صعبة تتطلب فهم عميق للغة والسياق والمعرفة العالمية.في هذه الورقة، نحقق ما إذا كانت دمج المعرفة المنطقية تساعد في الكشف عن السخرية.بالنسبة لهذا، فإننا ندمج معارف المنطقية في عملية التنبؤ باستخدام شبكة استئصال الرسم البياني مع تضيير نموذج اللغة المدرب مسبقا كمدخلات.تشير تجاربنا المزودة بثلاث مجموعات بيانات للكشف عن السخرية إلى أن النهج لا يتفوق على النموذج الأساسي.نحن نقوم بإجراء مجموعة شاملة من التجارب لتحليل المكان الذي يضيف فيه دعم المنطقي قيمة وأين يضر التصنيف.ينطبق تنفيذنا علنا على: https://github.com/brcsomnath/commonseense-sarasmasr.
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا