مجردة التعرف على الكيانات المسماة (NER) هي مهمة NLP الأساسية، والتي صاغها عادة كتصنيف على سلسلة من الرموز. تشكل اللغات الغنية المورفولوجية (MRLS) تحديا لهذه الصياغة الأساسية، حيث لا تتزامن حدود الكيانات المسماة بالضرورة مع حدود الرمز المميز، بل يحترمون الحدود المورفولوجية. لمعالجة NER في MRLS، نحتاج إلى الإجابة عن أسئلتين أساسيتين، وهي، ما هي الوحدات الأساسية التي سيتم تسميةها، وكيف يمكن الكشف عن هذه الوحدات وتصنيفها في إعدادات واقعية (أي، حيث لا يتوفر مورفولوجيا ذهبية). نحن نحقق تجريبيا في هذه الأسئلة حول معيار NENT الجديد، مع الشروح النيرية المتوازية من المستوى المتوازي ومستوى مورفيم، والتي نطورنا للعبرية الحديثة، وهي لغة غنية بالغريات المورفولوجية. تظهر نتائجنا أن النمذجة الصرخة على حدود مورفولوجية تؤدي إلى تحسين الأداء النيري، وأن الهندسة المعمارية المختلطة الهجينة، التي يسبقها ner يسبقها التحلل المورفولوجي، تتفوق بشكل كبير على خط الأنابيب القياسي، حيث يسبق التحلل المورفولوجي بشكل صارم NER، وضع شريط أداء جديد لكليهما العبرية NER والعبرية المهام المورفولوجية.
Abstract Named Entity Recognition (NER) is a fundamental NLP task, commonly formulated as classification over a sequence of tokens. Morphologically rich languages (MRLs) pose a challenge to this basic formulation, as the boundaries of named entities do not necessarily coincide with token boundaries, rather, they respect morphological boundaries. To address NER in MRLs we then need to answer two fundamental questions, namely, what are the basic units to be labeled, and how can these units be detected and classified in realistic settings (i.e., where no gold morphology is available). We empirically investigate these questions on a novel NER benchmark, with parallel token- level and morpheme-level NER annotations, which we develop for Modern Hebrew, a morphologically rich-and-ambiguous language. Our results show that explicitly modeling morphological boundaries leads to improved NER performance, and that a novel hybrid architecture, in which NER precedes and prunes morphological decomposition, greatly outperforms the standard pipeline, where morphological decomposition strictly precedes NER, setting a new performance bar for both Hebrew NER and Hebrew morphological decomposition tasks.
References used
https://aclanthology.org/
Pretraining-based neural network models have demonstrated state-of-the-art (SOTA) performances on natural language processing (NLP) tasks. The most frequently used sentence representation for neural-based NLP methods is a sequence of subwords that is
In this paper, we present NEREL, a Russian dataset for named entity recognition and relation extraction. NEREL is significantly larger than existing Russian datasets: to date it contains 56K annotated named entities and 39K annotated relations. Its i
Short text nowadays has become a more fashionable form of text data, e.g., Twitter posts, news titles, and product reviews. Extracting semantic topics from short texts plays a significant role in a wide spectrum of NLP applications, and neural topic
Cross-attention is an important component of neural machine translation (NMT), which is always realized by dot-product attention in previous methods. However, dot-product attention only considers the pair-wise correlation between words, resulting in
Neural topic models can augment or replace bag-of-words inputs with the learned representations of deep pre-trained transformer-based word prediction models. One added benefit when using representations from multilingual models is that they facilitat