نترجم نص مغلق معروف مقدما ومتوفر في العديد من اللغات في لغة موارد جديدة منخفضة للغاية. تعتمد معظم جهود الترجمة البشرية اتباع نهج بوابة لترجمة الصفحات / الفصول على التوالي، والتي قد لا تناسب الترجمة الآلية. قارنا النهج القائم على الجزء الذي يحسن التماسك النص محليا مع نهج أخذ العينات العشوائية التي تزيد من تغطية النص على مستوى العالم. تظهر نتائجنا أن نهج أخذ العينات العشوائية يؤدي بشكل أفضل. عند التدريب على كوربوس البذور من ~1000 خطوط من الكتاب المقدس والاختبار على بقية الكتاب المقدس (~30،000 خطوط)، يعطي أخذ العينات العشوائية مكسب أداء من +11.0 بلو باستخدام اللغة الإنجليزية كمورد منخفضة مقلدة، و +4.9 بلو باستخدام Pokomchi الشرقية، لغة المايا. علاوة على ذلك، نقارن ثلاث طرق لتحديث نماذج الترجمة الآلية مع زيادة كمية البيانات التي تم تحريرها البشرية من خلال التكرارات. نجد أن إضافة بيانات تم تحريرها حديثا إلى التدريب بعد تحديث المفردات دون الإشراف الذاتي يؤدي الأفضل. نقترح خوارزمية للإنسان والآلة للعمل معا بسلاسة لترجمة نص مغلق إلى لغة موارد منخفضة للغاية.
We translate a closed text that is known in advance and available in many languages into a new and severely low resource language. Most human translation efforts adopt a portionbased approach to translate consecutive pages/chapters in order, which may not suit machine translation. We compare the portion-based approach that optimizes coherence of the text locally with the random sampling approach that increases coverage of the text globally. Our results show that the random sampling approach performs better. When training on a seed corpus of ∼1,000 lines from the Bible and testing on the rest of the Bible (∼30,000 lines), random sampling gives a performance gain of +11.0 BLEU using English as a simulated low resource language, and +4.9 BLEU using Eastern Pokomchi, a Mayan language. Furthermore, we compare three ways of updating machine translation models with increasing amount of human post-edited data through iterations. We find that adding newly post-edited data to training after vocabulary update without self-supervision performs the best. We propose an algorithm for human and machine to work together seamlessly to translate a closed text into a severely low resource language.
المراجع المستخدمة
https://aclanthology.org/
تتخذ لغات الموارد المنخفضة في بعض الأحيان خصائص مورفولوجية ومزودة مماثلة بسبب قريبها الجغرافي والتاريخ المشترك.وجدت اثنين من لغات المجاورة المنخفضة المجاورة في بيرو، كوكوا وأشانينكا، للوهلة الأولى، لغتين متشابهة مورفولوجي.من أجل ترجمة اللغتين، اتخذت
نقترح نهجا جديدا لتعلم تضمين الكلمات المتبادلة عبر السياق بناء على كائن مواز صغير (E.G. بضع مئات من أزواج الجملة). تتمتع طريقتنا بدمج الكلمات عبر نموذج فك تشفير LSTM يترجم في وقت واحد وإعادة بناء جملة مدخلات. من خلال تقاسم المعلمات النموذجية بين لغات
في هذا العمل، نحقق في أساليب المهمة الصعبة المتمثلة في الترجمة بين أزواج لغة الموارد المنخفضة التي تظهر بعض مستوى التشابه.على وجه الخصوص، نعتبر فائدة نقل التعلم للترجمة بين العديد من لغات الموارد المنخفضة الأوروبية من الهند من الأسر الجرمانية والروما
بالنسبة لمعظم مجموعات اللغة والبيانات الموازية إما نادرة أو غير متوفرة ببساطة.لمعالجة هذا والترجمة الآلية غير المرفوعة (UMT) باستغلال كميات كبيرة من البيانات الأحادية من خلال استخدام تقنيات توليد البيانات الاصطناعية مثل الترجمة الخلفية والتوزيع وبينم
غالبا ما يقتصر الترجمة الآلية العصبية لغات الموارد المنخفضة (LRL) على عدم وجود بيانات تدريبية متاحة، مما يجعل من الضروري استكشاف تقنيات إضافية لتحسين جودة الترجمة.نقترح استخدام خوارزمية تجزئة الكلمات الفرعية للترميز (PRPE) بادئة الجذر (PRPE) لتحسين ج