ترغب بنشر مسار تعليمي؟ اضغط هنا

المعرفة اللغوية في التحويل متعدد اللغات

Linguistic Knowledge in Multilingual Grapheme-to-Phoneme Conversion

427   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

وثائق هذه الورقة نهج فريق Linguistics UBC في مهمة SIGMORPHON 2021 Graphem-To-PhoneMe المشتركة، والتركيز على إعداد الموارد المنخفضة.توسع أنظمتنا نموذج الأساس مع تعديلات بسيطة على علم بنية مقطع لفظي وتحليل الأخطاء.يبين التحقيق المتعمق في تنبؤات مجموعة الاختبار أن أفضل طرازنا يصحح عددا كبيرا من الأخطاء مقارنة بالتنبؤ الأساسي، حيث فهناك جميع التقديمات الأخرى.تحقق نتائجنا الرأي الذي يمكن أن يؤدي تحليل الأخطاء الدقيق مع المعرفة اللغوية إلى نمذجة حسابية أكثر فعالية.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

تصف هذه الورقة التقديم من قبل الفريق من قسم اللغويات الحاسوبية، جامعة زيوريخ، إلى مهمة تحويل Grapheme-To-PhoneMe متعددة اللغات 1 من تحدي Sigmorphon 2021 في الإعدادات المنخفضة والمتوسطة. التقديم هو اختلاف في نظامنا 2020 G2P، الذي يعمل كأساس لتحدي هذا العام. النظام عبارة عن محول عصبي يعمل على إجراءات تحرير صريحة ويتم تدريبه على التعلم التقليد. لهذا التحدي، جربنا التغييرات التالية: أ) شرائح صوتية تنبعث منها بدلا من صوتيات الشخصيات الفردية، ب) تسرب حرف الإدخال، ج) فك تشفير Mogrovifier LSTM (Melis et al.، 2019)، D) إثراء مدخلات وحدة فك الترميز حضر حاليا حرف الإدخال، ه) تشفير Bilstm الموازية، و) جدولة حجم الدفعة التكيفية. في الإعداد المنخفض، تحسن أفضل فرمنا على الأساس، ومع ذلك، في الإعداد المتوسطة، كان الأساس أقوى في المتوسط، على الرغم من أن تحسينات بعض اللغات يمكن ملاحظتها.
نحن ندرس تحليل عمرو متعدد اللغات من منظور تقطير المعرفة، حيث يكون الهدف هو تعلم وتحسين محلل عمرو متعدد اللغات باستخدام محلل إنجليزي موجود كمعلم لها.نحن تقيد استكشافنا في إعداد صارم متعدد اللغات: هناك نموذج واحد لتحليل جميع اللغات المختلفة بما في ذلك اللغة الإنجليزية.نحدد أن المدخلات الصاخبة والإخراج الدقيق هي مفتاح التقطير الناجح.جنبا إلى جنب مع التدريب المسبق الواسع، نحصل على محلل عمري الذي يتجنب عروضه جميع النتائج التي تم نشرها مسبقا على أربعة لغات أجنبية مختلفة، بما في ذلك الهوامش الألمانية والإسبانية والإيطالية والصينية، بواسطة هوامش كبيرة (تصل إلى 18.8 نقطة برائحة على الصينية وفي المتوسط 11.3نقاط smatch).يحقق محللنا أيضا أداء قابلا للمقارنة على اللغة الإنجليزية إلى أحدث المحللين باللغة الإنجليزية فقط.
UDIFY هو محلل التبعية اللاإرائي لغرفة التبعية اللغوية التي يتم تدريبها على كوربوس متعدد الألوان من 75 لغة.يتيح هذا النمذجة متعددة اللغات النموذج من التعميم على اللغات غير المعروفة / الأقل شهرة، مما يؤدي إلى تحسين الأداء على لغات الموارد المنخفضة.في ه ذا العمل، استخدمنا المعرفة النموذجية اللغوية المتاحة في قاعدة بيانات أوريل، لتحسين قدرة النقل المتبقية من udify أكثر من ذلك.
نحن تصف محلول Nuig لمهمة IWPT 2021 بمهمة التعبير المعزز (ED) معزز بلغات متعددة.بالنسبة لهذه المهمة المشتركة، نقترح وتقييم محلل إد المحلي المستند SEQ2SEQ SEQ2SEQ ومقرها SEQ2SEQ الذي يتنبأ بمجموعة ED-Parse من جملة مدخلات معينة كأسلسلة موضعية موضعية للن موذج النسبي.نموذجنا المقترح هو شبكة عصبية متعددة الاستخدامات تؤدي خمس مهام رئيسية في وقت واحد وهي وضع علامات UPOS، ووضع العلامات UFEAT، والليمون، والتحليل التبعية والحد من التحليل.علاوة على ذلك، نستخدم النموذج اللغوي المتاح في قاعدة بيانات Wals لتحسين قدرة محللنا المحترفين المقترحين على الانتقال عبر اللغات.تشير النتائج إلى أن SEQ2SEQ ED-Parser المقترح لدينا يؤدي على قدم المساواة مع محلل ED-Art-Art على الرغم من وجود علامة أبسط.
نحن تصف ثلاثة أنظمة تفوق خطوط خط أساس للمهمة الفرعية للإنجليزية فقط فقط من المهمة المشتركة Sigmorphon 2021 1: مجموعة صغيرة يستخدم فريق التعرف على الكلام في Dialpad داخليا، نموذجا غير معروف من الرف، وأكبرنموذج الفرقة التي تضم هذه وغيرها.نناقش التحديات المرتبطة بالبيانات المقدمة، جنبا إلى جنب مع خطوات المعالجة التي أخذناها.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا