نحن نستخدم التعرف على قانون الحوار (دار) للتحقيق في مدى امتثال بيرت الانتحال في الحوار، وكيف تساهم بضبط الدقيقة والتدريب المسبق على نطاق واسع في أدائها.نجد أنه في حين أن كل من التدريبات القياسية السابقة للتدريب والإحاطاء على البيانات التي تشبه الحوار هي مفيدة، فإن الضبط الدقيق الخاص بمهارات المهام أمر ضروري للأداء الجيد.
We use dialogue act recognition (DAR) to investigate how well BERT represents utterances in dialogue, and how fine-tuning and large-scale pre-training contribute to its performance. We find that while both the standard BERT pre-training and pretraining on dialogue-like data are useful, task-specific fine-tuning is essential for good performance.
المراجع المستخدمة
https://aclanthology.org/
تقترح هذه الدراسة نهجا نطق في موقف الكلام لنموذج التعرف على قانون الحوار العصبي القائم على الشبكة (دار)، مما يشتمل على الترميز الموضعي للموقف المطلق أو النسبي للكلام.النهج المقترح مستوحى من الملاحظة أن بعض أعمال الحوار لها اتجاهات مناصب الحدوث.تبين ا
يوفر الإعلان السياقي للمعلنين الفرصة لاستهداف السياق الأكثر صلة بإعلاناتهم. يجعل مجموعة متنوعة كبيرة من الموضوعات المحتملة تحديا للغاية لجمع وثائق التدريب لبناء نموذج تصنيف إشراف أو يؤلف قواعد مكتوبة للخبراء في نظام تصنيف قائم على القواعد. علاوة على
تنطوي تصنيف الحبيبات الجميلة على التعامل مع مجموعات البيانات مع عدد أكبر من الفصول مع الاختلافات الدقيقة بينهما.إن توجيه النموذج إلى التركيز على أبعاد التفريق بين هذه الفئات القابلة للتصريفية بشكل شائع هو مفتاح تحسين الأداء في مهام الحبيبات الجميلة.ف
يتضمن تصنيف النص متعدد العلامات واسعة النطاق (LMTC) مهام مع مسافات تسمية هرمية، مثل التعيين التلقائي لرموز ICD-9 إلى ملخصات التفريغ.يتم تقييم أداء النماذج في الفن السابق مع تدابير الدقة القياسية والتذكر و F1 دون اعتبار للهيكل الهرمي الغني.في هذا العم
نقدم مبادرة Norlm المستمرة لدعم إنشاء واستخدام نماذج اللغة السياقية الكبيرة للغاية للنرويجية (ومن حيث المبدأ لغات الشمال الأخرى)، بما في ذلك بيئة برنامج جاهزة للاستخدام، بالإضافة إلى تقرير خبرة لإعداد البيانات والتدريبوبعدتقدم هذه الورقة أول نماذج لغ