نستكشف الصلة بين المدى الذي يتم فيه الحفاظ على العلاقات النحوية في الترجمة وسهولة إنشاء شجرة تحليل بشكل صحيح في إعداد طلقة صفرية. في حين أن العمل السابق يشير إلى مثل هذه العلاقة، إلا أنه يميل إلى التركيز على مستوى الكلي وليس على مستوى الحواف الفردية --- فجوة نهدف إلى معالجتها. كحالة اختبار، نقوم بنقل التبعيات العالمية (UD) من الإنجليزية إلى مجموعة متنوعة من اللغات وإجراء مجموعتين من التجارب. في واحد، نقوم بتحليل الأداء الصفر بالرصاص بناء على مدى الحفاظ على حواف مصدر اللغة الإنجليزية في الترجمة. في مكان آخر، نطبق ثلاث تحولات بدوائية بمرحلة مغلفة إلى UD، مما يخلق المزيد من الإصدارات المستقرة عبر الأغراض، وتقييم إمتصاصها الصفرية بالرصاص. من أجل مقارنة أداء التحليل عبر مخططات مختلفة، نقوم بإجراء تقييم خارجي على المهمة المصب المتمثلة في استخراج العلاقات عبر اللغات المتبادلة باستخدام مجموعة فرعية من المعيار الإنجليزي القياسي المترجم إلى الروسية والكورية. في كلتا المجموعتين من التجارب، تشير نتائجنا إلى علاقة قوية بين الاستقرار عبر اللغات وأداء تحليل اللقطة الصفرية.
We explore the link between the extent to which syntactic relations are preserved in translation and the ease of correctly constructing a parse tree in a zero-shot setting. While previous work suggests such a relation, it tends to focus on the macro level and not on the level of individual edges---a gap we aim to address. As a test case, we take the transfer of Universal Dependencies (UD) parsing from English to a diverse set of languages and conduct two sets of experiments. In one, we analyze zero-shot performance based on the extent to which English source edges are preserved in translation. In another, we apply three linguistically motivated transformations to UD, creating more cross-lingually stable versions of it, and assess their zero-shot parsability. In order to compare parsing performance across different schemes, we perform extrinsic evaluation on the downstream task of cross-lingual relation extraction (RE) using a subset of a standard English RE benchmark translated to Russian and Korean. In both sets of experiments, our results suggest a strong relation between cross-lingual stability and zero-shot parsing performance.
References used
https://aclanthology.org/
Developing mechanisms that flexibly adapt dialog systems to unseen tasks and domains is a major challenge in dialog research. Neural models implicitly memorize task-specific dialog policies from the training data. We posit that this implicit memoriza
Pretrained transformer-based encoders such as BERT have been demonstrated to achieve state-of-the-art performance on numerous NLP tasks. Despite their success, BERT style encoders are large in size and have high latency during inference (especially o
Zero-shot cross-domain dialogue state tracking (DST) enables us to handle unseen domains without the expense of collecting in-domain data. In this paper, we propose a slot descriptions enhanced generative approach for zero-shot cross-domain DST. Spec
Coupled with the availability of large scale datasets, deep learning architectures have enabled rapid progress on the Question Answering task. However, most of those datasets are in English, and the performances of state-of-the-art multilingual model
This study aims at studying the phonetic or syllable changes that
occur on the last sound of a word when this sound is a consonant or a
vowel.
The study is also concerned with exploring the relation between the
last sound of the word and the firs