أصبحت نماذج المحولات التي يتم ضبطها بشكل جيد مع هدف وضع العلامات على التسلسل الاختيار المهيمن لمهام التعرف على الكيان المسمى. ومع ذلك، يمكن أن تفشل آلية اهتمام الذات مع طول غير مقيد في التقاط التبعيات المحلية بالكامل، خاصة عندما تكون البيانات التدريبية محدودة. في هذه الورقة، نقترح هدف تدريب مشترك جديد يلتقط أفضل دلالات الكلمات المقابلة لنفس الكيان. من خلال زيادة هدف التدريب مع عنصر فقدان المجموعة-الاتساق، فإننا نعزز قدرتنا على التقاط التبعيات المحلية مع الاستمتاع بمزايا آلية اهتمام الذات غير المقيد. على DataSet Conll2003، تحقق طريقة لدينا اختبار F1 من 93.98 مع نموذج محول واحد. الأهم من ذلك أن نموذج Conlll2003 الخاص بنا يعرض مكاسب كبيرة في تعميم البيانات خارج نطاق البيانات: على مجموعة بيانات OnTonotes، نحقق F1 من 72.67 وهو 0.49 نقطة مطلقا أفضل من خط الأساس، وعلى WNUT16 تعيين F1 من 68.22 وهو مكاسب من 0.48 نقطة. علاوة على ذلك، في DataSet WNUT17، نحقق F1 من 55.85، مما يؤدي إلى تحسن مطلق 2.92 نقطة.
Transformer models fine-tuned with a sequence labeling objective have become the dominant choice for named entity recognition tasks. However, a self-attention mechanism with unconstrained length can fail to fully capture local dependencies, particularly when training data is limited. In this paper, we propose a novel joint training objective which better captures the semantics of words corresponding to the same entity. By augmenting the training objective with a group-consistency loss component we enhance our ability to capture local dependencies while still enjoying the advantages of the unconstrained self-attention mechanism. On the CoNLL2003 dataset, our method achieves a test F1 of 93.98 with a single transformer model. More importantly our fine-tuned CoNLL2003 model displays significant gains in generalization to out of domain datasets: on the OntoNotes subset we achieve an F1 of 72.67 which is 0.49 points absolute better than the baseline, and on the WNUT16 set an F1 of 68.22 which is a gain of 0.48 points. Furthermore, on the WNUT17 dataset we achieve an F1 of 55.85, yielding a 2.92 point absolute improvement.
المراجع المستخدمة
https://aclanthology.org/
وقد ثبت أن التعرف على الكيان المسمى (NER) قد يستفيد من دمج المعلومات المهيكلة لمسافات طويلة التي تم التقاطها بواسطة أشجار التبعية. نعتقد أن هذا هو أن كلا النوعين من الميزات - المعلومات السياقية التي تم التقاطها من خلال التسلسلات الخطية والمعلومات الم
الملخص نتخذ خطوة نحو معالجة تمثيل القارة الأفريقية في أبحاث NLP من خلال جلب مختلف أصحاب المصلحة من أصحاب المصلحة في إنشاء بيانات كبيرة متاحة للجمهور وعالية الجودة للتعرف على الكيان المسمى (NER) في عشرة لغات أفريقية.إننا نقوم بالتفصيل خصائص هذه اللغات
يدل العمل الحالي في التعرف على الكيان المسمى (NER) أن تقنيات تكبير البيانات يمكن أن تنتج نماذج أكثر قوة.ومع ذلك، تركز معظم التقنيات الموجودة على زيادة البيانات داخل المجال في سيناريوهات الموارد المنخفضة حيث تكون البيانات المشروحة محدودة للغاية.في هذا
على الرغم من أن النماذج الكبيرة المدربة مسبقا (E.G.، Bert، Ernie، Xlnet، GPT3 وما إلى ذلك) قدمت أداء أعلى في النمذجة SEQ2SEQ، وغالبا ما تعوق عمليات نشرها في تطبيقات العالم الحقيقي بواسطة الحسابات المفرطة وطلب الذاكرة المعنية. بالنسبة للعديد من التطبي
نستكشف تطبيق خوارزميات NER-Art-Branch إلى نصوص مركز الاتصال التي تم إنشاؤها ASR. ركز العمل السابق في هذا المجال على استخدام نموذج Bilstm-CRF الذي اعتمد على تضمين الدعوى؛ ومع ذلك، فإن مثل هذا النموذج غير عملي من حيث الكمون واستهلاك الذاكرة. في بيئة ال