ترميز نماذج اللغة المدربة مسبقا (LMS) معلومات غنية حول الهيكل اللغوي ولكن معرفتهم حول Polysemy المعجمية لا تزال غير واضحة. نقترح إعداد تجريبي رواية لتحليل هذه المعرفة في LMS مدربين على وجه التحديد لغات مختلفة (الإنجليزية والفرنسية والإسبانية واليونانية) وفي بيرتف متعدد اللغات. نقوم بإجراء تحليلنا على مجموعات البيانات المصممة بعناية لتعكس التوزيعات المختلفة بالمعنى، والتحكم في المعلمات التي يرتبط بها بشدة مع Polysemy مثل التردد والفئة النحوية. نوضح أن تمثيلات بيرت المشتقة تعكس الكلمات "مستوى Polysemy وقابلية القسم الخاصة بهم إلى الحواس. تعد المعلومات المتعلقة بالبوليزمي موجودة بشكل أكثر وضوحا في English BertBeddings، لكن النماذج الموجودة بلغات أخرى تمكنت أيضا من إنشاء تمييزات ذات صلة بين الكلمات في مستويات Polysemy المختلفة. تسهم نتائجنا في فهم أفضل للمعارف المشفرة في تمثيلات السياق وفتح طرق جديدة للبحث عن دلالات المعجمات متعددة اللغات.
Pre-trained language models (LMs) encode rich information about linguistic structure but their knowledge about lexical polysemy remains unclear. We propose a novel experimental setup for analyzing this knowledge in LMs specifically trained for different languages (English, French, Spanish, and Greek) and in multilingual BERT. We perform our analysis on datasets carefully designed to reflect different sense distributions, and control for parameters that are highly correlated with polysemy such as frequency and grammatical category. We demonstrate that BERT-derived representations reflect words' polysemy level and their partitionability into senses. Polysemy-related information is more clearly present in English BERT embeddings, but models in other languages also manage to establish relevant distinctions between words at different polysemy levels. Our results contribute to a better understanding of the knowledge encoded in contextualized representations and open up new avenues for multilingual lexical semantics research.
References used
https://aclanthology.org/
Latent alignment objectives such as CTC and AXE significantly improve non-autoregressive machine translation models. Can they improve autoregressive models as well? We explore the possibility of training autoregressive machine translation models with
Despite achieving encouraging results, neural Referring Expression Generation models are often thought to lack transparency. We probed neural Referential Form Selection (RFS) models to find out to what extent the linguistic features influencing the R
Sub-tasks of intent classification, such as robustness to distribution shift, adaptation to specific user groups and personalization, out-of-domain detection, require extensive and flexible datasets for experiments and evaluation. As collecting such
Vector representations have become a central element in semantic language modelling, leading to mathematical overlaps with many fields including quantum theory. Compositionality is a core goal for such representations: given representations for wet'
To build robust question answering systems, we need the ability to verify whether answers to questions are truly correct, not just good enough'' in the context of imperfect QA datasets. We explore the use of natural language inference (NLI) as a way