قدمت نماذج تسلسل إلى تسلسل نتائج رائعة في مهام تكوين الكلمات مثل الانعطاف المورفولوجي، وغالبا ما تعلم نموذج التفاصيل المورفهولوجية الدقيقة مع بيانات تدريب محدودة. على الرغم من الأداء، فإن عتامة النماذج العصبية تجعل من الصعب تحديد ما إذا كانت التعميمات المعقدة تعلمت، أو ما إذا كان هناك نوع من تحفيظ منفصل عن ظهر قلب كل عملية مورفوفونية يحدث. للتحقيق في ما إذا كانت بدائل معقدة تم حفظها ببساطة أو ما إذا كان هناك مستوى من التعميم عبر التغييرات الصوتية ذات الصلة في نموذج تسلسل إلى تسلسل، فإننا نقوم بإجراء العديد من التجارب على التدرج السيكوني الفنلندي --- مجموعة معقدة من التغييرات الصوتية التي تنطلق في بعض الكلمات من خلال بعض اللواحق. نجد أن نماذجنا في كثير من الأحيان --- على الرغم من أنها ليست دائما --- تشفير 17 عملية مختلفة التدرج الساكن في حفنة من الأبعاد في RNN. نظهر أيضا أنه من خلال تحجيم التنشيط في هذه الأبعاد، يمكننا السيطرة على ما إذا كان التدرج السيكوني يحدث واتجاه التدريج.
Sequence-to-sequence models have delivered impressive results in word formation tasks such as morphological inflection, often learning to model subtle morphophonological details with limited training data. Despite the performance, the opacity of neural models makes it difficult to determine whether complex generalizations are learned, or whether a kind of separate rote memorization of each morphophonological process takes place. To investigate whether complex alternations are simply memorized or whether there is some level of generalization across related sound changes in a sequence-to-sequence model, we perform several experiments on Finnish consonant gradation---a complex set of sound changes triggered in some words by certain suffixes. We find that our models often---though not always---encode 17 different consonant gradation processes in a handful of dimensions in the RNN. We also show that by scaling the activations in these dimensions we can control whether consonant gradation occurs and the direction of the gradation.
References used
https://aclanthology.org/
This paper introduces the SemEval-2021 shared task 4: Reading Comprehension of Abstract Meaning (ReCAM). This shared task is designed to help evaluate the ability of machines in representing and understanding abstract concepts.Given a passage and the
Scientific claim verification can help the researchers to easily find the target scientific papers with the sentence evidence from a large corpus for the given claim. Some existing works propose pipeline models on the three tasks of abstract retrieva
The tasks of Rich Semantic Parsing, such as Abstract Meaning Representation (AMR), share similar goals with Information Extraction (IE) to convert natural language texts into structured semantic representations. To take advantage of such similarity,
The research community has proposed copious modifications to the Transformer architecture since it was introduced over three years ago, relatively few of which have seen widespread adoption. In this paper, we comprehensively evaluate many of these mo
This paper describes the winning system for subtask 2 and the second-placed system for subtask 1 in SemEval 2021 Task 4: ReadingComprehension of Abstract Meaning. We propose to use pre-trianed Electra discriminator to choose the best abstract word fr