الأساليب الحديثة لتحليل الدوائر الانتخابية هي مناهج إشراف أحادية اللغات التي تتطلب كمية كبيرة من البيانات المسمى التي سيتم تدريبها على، مما يحد من فائدتها إلى حفنة فقط من لغات الموارد العالية فقط. لمعالجة هذه المسألة في هذه المسألة لغات الموارد المنخفضة، نقترح نواعد الشبكة العصبية المتكررة عالمية (UNIRNNG) وهي متغير متعدد اللغات من نموذج قواعد الشبكة العصبية المتكررة (RNNG) المتكررة (RNNG) لتحليل الدوائر الانتخابية. ينطوي UNIRNNG على تعلم التحويل عبر اللغات لمهمة تحليل الدوائر الانتخابية. يتم إلهام بنية UNIRNNG من حيث المبدأ ونظرية المعلمة التي اقترحها نام تشومسكي. تستخدم UNIRNNG المعرفة النموذجية اللغوية المتاحة كقيم ميزة داخل قاعدة بيانات WALS، للتعميم على لغات متعددة. بمجرد التدريب على Corpus PolyGlot PolyGlot المتنوع بما فيه الكفاية، يمكن تطبيقه على أي لغة طبيعية مما يجعلها محلل الدائرة الانتخابية اللازمة للغات. تكشف التجارب أن نهج خطوط خط الأساس المتوفرة في UNIRNNG المتفوقة بالنسبة لنا أكبر من أجل معظم اللغات المستهدفة التي تم اختبارها.
Modern approaches to Constituency Parsing are mono-lingual supervised approaches which require large amount of labelled data to be trained on, thus limiting their utility to only a handful of high-resource languages. To address this issue of data-sparsity for low-resource languages we propose Universal Recurrent Neural Network Grammars (UniRNNG) which is a multi-lingual variant of the popular Recurrent Neural Network Grammars (RNNG) model for constituency parsing. UniRNNG involves Cross-lingual Transfer Learning for Constituency Parsing task. The architecture of UniRNNG is inspired by Principle and Parameter theory proposed by Noam Chomsky. UniRNNG utilises the linguistic typology knowledge available as feature-values within WALS database, to generalize over multiple languages. Once trained on sufficiently diverse polyglot corpus UniRNNG can be applied to any natural language thus making it Language-agnostic constituency parser. Experiments reveal that our proposed UniRNNG outperform state-of-the-art baseline approaches for most of the target languages, for which these are tested.
References used
https://aclanthology.org/
In computational linguistics, it has been shown that hierarchical structures make language models (LMs) more human-like. However, the previous literature has been agnostic about a parsing strategy of the hierarchical models. In this paper, we investi
Machine translation usually relies on parallel corpora to provide parallel signals for training. The advent of unsupervised machine translation has brought machine translation away from this reliance, though performance still lags behind traditional
Source code processing heavily relies on the methods widely used in natural language processing (NLP), but involves specifics that need to be taken into account to achieve higher quality. An example of this specificity is that the semantics of a vari
It is now established that modern neural language models can be successfully trained on multiple languages simultaneously without changes to the underlying architecture, providing an easy way to adapt a variety of NLP models to low-resource languages
Mathematical reasoning aims to infer satisfiable solutions based on the given mathematics questions. Previous natural language processing researches have proven the effectiveness of sequence-to-sequence (Seq2Seq) or related variants on mathematics so