أحد التحديات الرئيسية في ترجمة لغة الإشارة من لغة الإشارة إلى لغة منطوقة هو عدم وجود كوربورا متوازي. حققت الأعمال الحديثة نتائج واعدة على مجموعة بيانات RWTH-Phoenix-Weather 2014T، والتي تتكون من أكثر من ثمانية آلاف من الجمل الموازية بين لغة الإشارة الألمانية والألمانية. ومع ذلك، من منظور الترجمة الآلية العصبية، لا تزال هذه مجموعة بيانات صغيرة. لتحسين أداء النماذج المدربة على مجموعات البيانات الصغيرة، يمكن استخدام التعلم التحويل. في حين أن هذا قد تم تطبيقه مسبقا في ترجمة لغة الإشارة لاستخراج ميزة، فإن أفضل ما في معرفتنا، لم يتم التحقيق في نماذج اللغة المحددة مسبقا. نستخدم نماذج BERT-Base و MBART-50 لتهيئة فيديو لغة الإشارة لنموذج الترجمة النصية باللغة المنطوقة. لتخفيف الزيادة، نحن نطبق تقنية المحولات المجمدة مسبقا: نحن نجمد غالبية المعلمات أثناء التدريب. باستخدام نموذج Bertrained Bertrain، نحن نتفوق على خط الأساس المدربين من الصفر بنسبة 1 إلى 2 BLEU-4. تظهر نتائجنا أن نماذج اللغة المحددة مسبقا يمكن استخدامها لتحسين أداء ترجمة لغة الإشارة وأن أنماط اهتمام الذات في نقل Bert في صفر تسديدة إلى ترميز ونماذج ترجمة لغة الإشارة.
One of the major challenges in sign language translation from a sign language to a spoken language is the lack of parallel corpora. Recent works have achieved promising results on the RWTH-PHOENIX-Weather 2014T dataset, which consists of over eight thousand parallel sentences between German sign language and German. However, from the perspective of neural machine translation, this is still a tiny dataset. To improve the performance of models trained on small datasets, transfer learning can be used. While this has been previously applied in sign language translation for feature extraction, to the best of our knowledge, pretrained language models have not yet been investigated. We use pretrained BERT-base and mBART-50 models to initialize our sign language video to spoken language text translation model. To mitigate overfitting, we apply the frozen pretrained transformer technique: we freeze the majority of parameters during training. Using a pretrained BERT model, we outperform a baseline trained from scratch by 1 to 2 BLEU-4. Our results show that pretrained language models can be used to improve sign language translation performance and that the self-attention patterns in BERT transfer in zero-shot to the encoder and decoder of sign language translation models.
المراجع المستخدمة
https://aclanthology.org/
غالبا ما يتحلل ترجمة لغة الإشارة (SLT) في التعرف على الفيديو إلى اللمعان والترجمة النصية إلى النص، حيث يكون اللمعان سلسلة من الكلمات اللغوية الموضحة باللغة المنطوقة بالترتيب الذي يتم فيه توقيعه.نحن نركز هنا على الترجمة اللامع إلى النص، والتي نعلمها ك
التواصل بين أخصائيي الرعاية الصحية والمرضى الصم يتحدىون، والوباء الحالي Covid-19 يجعل هذه المشكلة أكثر حادة.غالبا ما لا تدخل مفسر لغة الإشارة في كثير من الأحيان المستشفيات وأقنائك الوجهلمعالجة هذه المشكلة العاجلة، قمنا بتطوير نظام يسمح بمهنيي الرعاية
تعلق نظام ترجمة لغة الإشارة المتتالية في خرائط أول خريطة توقيع مقاطع فيديو لمعالجة التوضيحية ثم تترجم لمعان اللغات في لغات منطوقة.يركز هذا العمل على مكون الترجمة اللامع في المرحلة الثانية، وهو أمر صعب بسبب ندرة البيانات الموازية المتاحة للجمهور.نحن ن
نقدم عددا من التوصيات المنهجية المتعلقة بالتقييم عبر الإنترنت للأفيستار للترجمة النصية للإحداث النصي، مع التركيز على هيكل واستبيان وطول الاستبيان، وكذلك طرق إفرازات الردود وإخلاص
تقدم هذه الورقة نظرة عامة على AVASAG؛مشروع أبحاث تطبيقي مستمر يقوم بتطوير نظام ترجمة من النص إلى تسجيل الدخول للخدمات العامة.نحن نصف نقاط الابتكار العلمي (الوصف SL على أساس الهندسة، الرسوم المتحركة ثلاثية الأبعاد والفيديو، نظام التوضيح المبسطة، استراتيجية التقاط الحركة) وخط أنابيب الترجمة الشاملة.