ترغب بنشر مسار تعليمي؟ اضغط هنا

منصة تكنولوجيا اللغة الوطنية مالطا: رؤية لتعزيز اللغات الرسمية في مالطا باستخدام الترجمة الآلية

Malta National Language Technology Platform: A vision for enhancing Malta's official languages using Machine Translation

486   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

في هذه الورقة، نقدم رؤية تجاه إنشاء منصة مالطا لتكنولوجيا اللغات الوطنية؛جهد مستمر يهدف إلى توفير أساس لتعزيز اللغات الرسمية في مالطا، أي المالطية والإنجليزية، باستخدام الترجمة الآلية.سيؤدي ذلك إلى المساهمة في تحسين دعم تكنولوجيا اللغة الحالية لغوية لغة الموارد المنخفضة المالطية، عبر حقول اللغويات الحسابية المتعددة، مثل معالجة الكلام والترجمة الآلية وتحليل النصوص ومصادر متعددة الوسائط.تتمثل الأهداف النهائية في إزالة الحواجز اللغوية، وزيادة إمكانية الوصول، وتعزيز الخدمات عبر الحدود، والأهم من ذلك لتسهيل الحفاظ على اللغة المالطية.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

وصلت الترجمة غير المزدئة إلى أداء مثير للإعجاب على أزواج اللغة الغنية بالموارد مثل اللغة الإنجليزية الفرنسية والإنجليزية - الألمانية. ومع ذلك، أظهرت الدراسات المبكرة أنه في بيئات أكثر واقعية تنطوي على الموارد المنخفضة، لغات نادرة، تؤدي الترجمة غير ال معينة بشكل سيئ، وتحقيق أقل من 3.0 بلو. في هذا العمل، نظير على أن تعددية اللغات أمر بالغ الأهمية لجعل أنظمة غير مخالفة عملية لإعدادات الموارد المنخفضة. على وجه الخصوص، نقدم نموذجا واحدا ل 5 لغات منخفضة الموارد (الغوجاراتية، كازاخ، النيبالية، السنهالية، والتركية) من وإلى اتجاهات اللغة الإنجليزية، والتي ترفع البيانات المتوازية غير المباشرة والمساعدة من أزواج لغة موارد أخرى عالية من خلال ثلاثة مخطط التدريب المرحلة. نحن نتفوق على جميع خطوط الأساس غير المدعومة الحالية له لهذه اللغات، وتحقيق مكاسب تصل إلى 14.4 بلو. بالإضافة إلى ذلك، نحن نتفوق خطوط خطوط خطوط خطوط خطوط أخرى تحت إشراف قوية لمختلف أزواج اللغات وكذلك تطابق أداء النموذج الحالي للإشراف على النيبالية والإنجليزية. نقوم بإجراء سلسلة من دراسات الاجتثاث لإثبات نطاقات نموذجنا بموجب درجات مختلفة من جودة البيانات، وكذلك لتحليل العوامل التي أدت إلى الأداء الفائق للنهج المقترح على النماذج التقليدية غير المعروضة.
على الرغم من أنه تم اقتراح العديد من نماذج الترجمة الآلية التي أدركها العديد من المناظر في إدراج سياقات مشتركة بين العلويين في الترجمة، يمكن تدريب هذه النماذج فقط في المجالات التي توجد فيها مستندات متوازية ذات محاذاة أساسيا.لذلك نقدم طريقة بسيطة لأدا ء فك تشفير السياق مع أي نموذج ترجمة مسبقا مسبقا مسبقا مسبقا باستخدام نموذج لغة مستوى المستند.تم بناء وحدة فك ترميز Context-Aware الخاص بنا على البيانات الموازية على مستوى الجملة والبيانات غير المباشرة على مستوى المستند على مستوى المستند.من وجهة نظر نظرية، فإن مساهمتنا الأساسية هي التمثيل الجديد لمعلومات السياقية باستخدام المعلومات المتبادلة النقطة بين السياق والحكم الحالي.نوضح فعالية طريقنا على الترجمة الإنجليزية إلى الترجمة الروسية، من خلال تقييمها مع اختبارات بلو وتناقض الترجمة من السياق.
تبين مقارنة تسلسلات الصيغة في الآلات البشرية والآلة العصبية لمقالات الصحف عالية الجودة أن ترجمات الآلات العصبية تحتوي على تسلسل أقل تردد أقل، ولكن تسلسل صيغة صيغة صينية مرتبطة بشدة (FSS)، والمزيد من FSS عالية التردد.يمكن أن ترتبط هذه الملاحظات بالاخت لافات بين المتعلمين من اللغات الثانية من المستويات المختلفة وبين النصوص المترجمة وغير الترجمة.تشير المقارنة بين أنظمة الترجمة الآلية العصبية إلى أن بعض الأنظمة تنتج المزيد من الأقمار الصناعية لكلا النوعين من الأنظمة الأخرى.
في هذا العمل، تم تطوير وتقييم وتقييم أنظمة الترجمة الآلية العصبيةين كجزء من BILIRECTIONAL TAMIL-TELUGU Transmation Language Translation Transke Subtask في WMT21. تم استخدام مجموعة أدوات OpenNMT-PY لإنشاء النماذج النماذج الخاصة بالأنظمة السريعة، والتي تتابع النماذج التي تم تدريبها على مجموعات البيانات التدريبية التي تحتوي على Corpus الموازي وأخيرا تم تقييم النماذج على مجموعات بيانات Dev المقدمة كجزء من المهمة. تم تدريب كل من الأنظمة على محطة DGX مع 4 -V100 GPUs. أول نظام NMT في هذا العمل هو طراز ترميز تشفير من 6 طبقة محول، تدرب على 100000 خطوة تدريبية، مما يشبه تكوينه الجديد الذي يوفره OpenNMT-PY وهذا يستخدم لإنشاء نموذج للحصول على ترجمة ثنائية الاتجاه. يحتوي نظام NMT الثاني على نماذج ترجمة أحادية الاتجاه مع نفس التكوين كنظام أول كأول، مع إضافة ترميز زوج البايت البايت (BPE) لتخشيص الكلمات الفرعية من خلال طراز MultiBPEMB المدرب مسبقا. بناء على مقاييس تقييم DEV DataSet لكل من النظم، فإن النظام الأول I.E. لقد تم تقديم نموذج محول الفانيليا كنظام أساسي. نظرا لعدم وجود تحسينات في المقاييس أثناء تدريب النظام الثاني مع BPE، فقد تم تقديمه كأنظمة مضادة للتناقض.
عادة ما يتم تكليف الترجمة الآلية العصبية متعددة الموارد (MNMT) بتحسين أداء الترجمة على أزواج لغة واحدة أو أكثر بمساعدة أزواج لغة الموارد عالية الموارد.في هذه الورقة، نقترح اثنين من المناهج البحث البسيطة القائمة على البحث - طلب بيانات التدريب المتعدد اللغات - والتي تساعد على تحسين أداء الترجمة بالاقتران مع التقنيات الحالية مثل الضبط الدقيق.بالإضافة إلى ذلك، نحاول تعلم منهجا من المناهج الدراسية من MNMT من الصفر بالاشتراك مع تدريب نظام الترجمة باستخدام قطاع الطرق متعددة الذراع السياقية.نعرض على مجموعة بيانات الترجمة المنخفضة من Flores التي يمكن أن توفر هذه المناهج المستفادة نقاطا أفضل للضبط وتحسين الأداء العام لنظام الترجمة.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا