ترغب بنشر مسار تعليمي؟ اضغط هنا

تبادل الاهتمام شبكات محول المعزز للترجمة الفورية

Cross Attention Augmented Transducer Networks for Simultaneous Translation

200   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

تقترح هذه الورقة هندسة جديدة، والاهتمام المتقاطع محول المعزز (CAAT)، للحصول على ترجمة متزامنة.يهدف الإطار إلى تحسين نماذج السياسات والترجمة بشكل مشترك.للتفكير بشكل فعال في جميع مسارات عمل الترجمة المتزامنة للقراءة والكتابة، نقوم بتكييف طراز التعرف على الكلام التلقائي عبر الإنترنت (ASR)، RNN-T، ولكن قم بإزالة القيود الخطية القوية، وهو أمر بالغ الأهمية لمهمة الترجمة للنظر في إعادة ترتيب.لجعل أعمال CAAT، نقدم خسارة زمنية جديدة يمكن تحسين توقعها بواسطة خوارزمية متخلفة للأمام.نقوم بتنفيذ CAAT مع محول بينما يمكن أيضا تنفيذ الهندسة المعمارية العامة CAAT مع أطر ترميز التشفير الأخرى القائمة على الانتباه.تشير التجارب على مهام الترجمة الفورية للكلمة إلى النص (S2T) والنصوص (T2T) إلى أن CAAT تحقق مفاضلات أفضل لجودة الكمون بشكل كبير مقارنة بنهج الترجمة المتزامنة التي من بين الفن.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

أسئلة البحث الحديثة أهمية الاهتمام الذاتي لمنتج المنتج في نماذج المحولات ويظهر أن معظم رؤساء الاهتمام تعلم أنماطا موضعية بسيطة. في هذه الورقة، ندفع أبعد من ذلك في خط البحث هذا واقتراح آلية بديلة جديدة عن النفس: الاهتمام المتكرر (ران). تتعلم RAN بشكل مباشر أوزان الاهتمام دون أي تفاعل رمزي إلى رمز ويحسن قدرتها على تفاعل الطبقة إلى الطبقة. عبر مجموعة واسعة من التجارب في 10 مهام ترجمة آلية، نجد أن نماذج RAN تنافسية وتفوق نظيرها المحول في بعض السيناريوهات، مع عدد أقل من المعلمات ووقت الاستدلال. خاصة، عند تطبيق ركض إلى فك ترميز المحولات، يجلب التحسينات المتسقة عن طريق حوالي +0.5 بلو في 6 مهام الترجمة و +1.0 Bleu على مهمة الترجمة التركية الإنجليزية. بالإضافة إلى ذلك، نجرينا تحليلا مكثفا بشأن أوزان الاهتمام في ركض لتأكيد المعقولية. ران لدينا هو بديل واعد لبناء نماذج NMT أكثر فعالية وكفاءة.
يعد الانتباه عبر الانتباه عنصرا هاما للترجمة الآلية العصبية (NMT)، والتي تتحقق دائما عن طريق انتباه DOT-Product في الأساليب السابقة.ومع ذلك، فإن اهتمام DOT-Product يعتبر فقط الارتباط بين الكلمات بين الكلمات، مما أدى إلى تشتت عند التعامل مع جمل طويلة وإهمال العلاقات المجاورة للمصدر.مستوحاة من اللغويات، فإن القضايا المذكورة أعلاه ناجمة عن تجاهل نوع من الاهتمام، الذي يطلق عليه الانتباه المركزي، الذي يركز على عدة كلمات مركزية ثم ينتشر حولها.في هذا العمل، نطبق نموذج خليط غاوسي (GMM) لنموذج الاهتمام المركزي بالاهتمام الشامل.تبين التجارب والتحليلات التي أجريناها على ثلاث مجموعات من مجموعات البيانات أن الطريقة المقترحة تتفوق على خط الأساس ولديها تحسن كبير في جودة المحاذاة ودقة N-Gram والترجمة الحكم الطويلة.
نقدم طريقة بسيطة لتوسيع المحولات إلى الأشجار من جانب المصدر.نحن نحدد عددا من الأقنعة التي تحد من اهتمام الذات بناء على العلاقات بين العقد الشجرة، ونحن نسمح لكل انتباه في أن يتعلم أي قناع أو أقنعة لاستخدامها.عند الترجمة من الإنجليزية إلى العديد من لغا ت الموارد المنخفضة، والترجمة في كلا الاتجاهين بين اللغة الإنجليزية والألمانية، تعمل طريقتنا دائما على التحليل البسيط لمجموعة تحليل جانب المصدر ويحسن دائما تقريبا على خط أساس تسلسل إلى تسلسل، حسب ما يصلإلى +2.1 بلو.
فهم اللغة المنطوقة، عادة بما في ذلك اكتشاف النوايا وملء الفتحات، هو مكون أساسي لبناء نظام حوار منطوق. تظهر الأبحاث الحديثة نتائج واعدة من خلال التعلم المشترك بين هذين المهامتين بناء على حقيقة أن ملء الفتحة والكشف عن النوايا تشارك المعرفة الدلالية. عل اوة على ذلك، فإن آلية الاهتمام تعزز التعلم المشترك لتحقيق نتائج أحدث من الفن. ومع ذلك، فإن نماذج التعلم المشتركة الحالية تتجاهل الحقائق المهمة التالية: 1. لا يتم تتبع سياق فتحة طويلة الأجل بشكل فعال، وهو أمر حاسم لملء الفتحات المستقبلية. 2. يمكن أن تكون الفتحة وعلامات الكشف عن النية مجزية بشكل متبادل، ولكن التفاعل ثنائي الاتجاه بين ملء الفتحات والكشف عن النوايا لا يزال نادرا ما تم استكشافه. في هذه الورقة، نقترح نهجا جديدا لنموذج سياق فتحة طويلة الأجل واستخدام العلاقة الدلالية بالكامل بين الفتحات والمحالة. نعتمد شبكة الذاكرة ذات القيمة الرئيسية لنموذج سياق الفتحة ديناميكيا وتتبع علامات فتحة أكثر أهمية فك شفرة من قبل، والتي يتم تغذيتها بعد ذلك في وحدة فك التشفير الخاصة بنا للحصول على علامات الفتحة. علاوة على ذلك، يتم استخدام معلومات الذاكرة الدائرية لأداء الكشف عن النية، وتحسين المهام المتبادلة من خلال التحسين العالمي. تظهر التجارب على معيار ATIS و SHITS DataSets أن نموذجنا يحقق أداء حديثة وتفوق على طرق أخرى، خاصة بالنسبة لمهمة ملء الفتحة.
يهدف استخراج العاطفة (ECE) إلى استخراج الأسباب وراء المشاعر المعينة في النص. تم نشر بعض الأعمال المتعلقة بمهمة اللجنة الاقتصادية لأوروبا وجذب الكثير من الاهتمام في السنوات الأخيرة. ومع ذلك، فإن هذه الطرق تهمل قضايا رئيسيتين: 1) دفع عدد قليل من الانتب اه لتأثير معلومات السياق على مستوى المستند على اللجنة الاقتصادية لأوروبا، و 2) عدم وجود استكشاف كاف لكيفية استخدام بند العاطفة المشروح بفعالية. بالنسبة للقضية الأولى، نقترح شبكة انتباه هرمية ثنائية الاتجاه (BHA) المقابلة للمرشح المحدد يسبب البحث عن سياق مستوى المستند في المستند بطريقة منظمة وديناميكية. بالنسبة للقضية الثانية، نقوم بتصميم وحدة تصفية عاطفية (EF) لكل طبقة من شبكة انتباه الرسوم البيانية، والتي تحسب درجة البوابة بناء على جملة العاطفة لتصفية المعلومات غير ذات الصلة. الجمع بين BHA و EF، يمكن ل EF-BHA أن يكتسب ديناميكيا المعلومات السياقية من اتجاهين وفلاتر المعلومات غير ذات صلة. توضح النتائج التجريبية أن EF-BHA يحقق العروض التنافسية على مجموعة بيانات عامة بلغات مختلفة (الصينية والإنجليزية). علاوة على ذلك، نحدد تأثير السياق على استخراج السبب العاطفي وتوفير تصور التفاعلات بين المرشح يسبب البنود والسياقات.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا