في هذه الورقة، نقدم نظاما لحل مهمة الغموض في السياق عبر اللغات واللغات متعددة اللغات. قدم منظمو المهام بيانات أحادية الأونلينغ بعدة لغات، ولكن لم تتوفر بيانات تدريبية عبر اللغات. لمعالجة عدم وجود بيانات تدريبية عبر اللغات المقدمة رسميا، قررنا توليد هذه البيانات بأنفسنا. نحن نصف نهج بسيط ولكنه فعال يعتمد على الترجمة الآلية والترجمة الخلفية للوحدات المعجمية إلى اللغة الأصلية المستخدمة في سياق هذه المهمة المشتركة. في تجاربنا، استخدمنا نظاما عصبا يعتمد على نموذج لغة XLM-R، وهو نموذج لغة ملثم مقره محول مسبقا، كناسما أساسيا. نظهر فعالية النهج المقترح لأنه يسمح بتحسين أداء هذا النموذج الأساسي القوي العصبي القوي. بالإضافة إلى ذلك، في هذه الدراسة، نقدم أنواعا متعددة من المصنف المستند إلى XLM-R، وتجربة طرق مختلفة لخلط المعلومات من الأحداث الأولى والثانية للكلمة المستهدفة في عينتين.
In this paper, we present a system for the solution of the cross-lingual and multilingual word-in-context disambiguation task. Task organizers provided monolingual data in several languages, but no cross-lingual training data were available. To address the lack of the officially provided cross-lingual training data, we decided to generate such data ourselves. We describe a simple yet effective approach based on machine translation and back translation of the lexical units to the original language used in the context of this shared task. In our experiments, we used a neural system based on the XLM-R, a pre-trained transformer-based masked language model, as a baseline. We show the effectiveness of the proposed approach as it allows to substantially improve the performance of this strong neural baseline model. In addition, in this study, we present multiple types of the XLM-R based classifier, experimenting with various ways of mixing information from the first and second occurrences of the target word in two samples.
المراجع المستخدمة
https://aclanthology.org/
تقدم هذه الورقة نظام الغموض في السياق.تركز المهمة على التقاط الطبيعة Polysemous للكلمات في بيئة متعددة اللغات واللغة اللغوية، دون النظر في جرد صارم من معاني الكلمات.يطبق النظام خوارزميات معالجة اللغة الطبيعية على مجموعات البيانات من مهمة Semeval 2021
في هذه الورقة، نقدم المهمة السامية الأولى على الغموض المتعددة اللغات والبلاية في السياق (MCL-WIC). تتيح هذه المهمة القدرة الكامنة التي تم التحقيق بها إلى حد كبير من القدرة المتأصلة إلى حد كبير في التمييز بين حواس الكلمات داخل وبصور اللغات المراد تقيي
نقوم بتجربة XLM Roberta for Word في سياق الغموض في الإعداد اللغوي متعدد اللغات والصليب لتطوير نموذج واحد لديه معرفة حول كلا الإعدادات.نحل المشكلة كمشكلة تصنيف ثنائية وكذلك تجربة تكبير البيانات وتقنيات التدريب الخصم.بالإضافة إلى ذلك، نقوم أيضا بتجربة
في هذه الورقة، نقدم نظامنا الذي شاركناه في مهمة Semeval Semeval Semeval Semeval 2021. في تجاربنا، حققنا في إمكانية استخدام نظام غموض من معنى الكلام من الكلمات الدقيقة التي تم تدريبها على البيانات المشروحة ذات الإحساس باللغة الإنجليزية ورسم تنبؤات على
في هذا العمل، نقدم نهجنا لحل المهمة Semeval 2021 2: الغموض المتعددة اللغات والتبلغة في السياق (MCL-WIC). المهمة هي مشكلة تصنيف زوج الجملة حيث يكون الهدف هو اكتشاف ما إذا كانت كلمة معينة مشتركة بين كل من الجمل تثير نفس المعنى. نقدم أنظمة لكلا الإعدادا