هناك نوعان مناهضين لتسجيل الجملة الزوجية: التشفير المكونات، مما أداء الانتباه الكامل عبر زوج الإدخال، والترميزات الثنائية، والتي تعريش كل مدخلات بشكل مستقل إلى مساحة متجهية كثيفة. في حين أن التشفير المتقاطعة غالبا ما يحقق أداء أعلى، فهي بطيئة للغاية بالنسبة للعديد من حالات الاستخدام العملية. تتطلب الزيادة الثنائية، من ناحية أخرى، بيانات تدريبية كبيرة وصقل جيد على المهمة المستهدفة لتحقيق الأداء التنافسي. نقدم استراتيجية بسيطة لكنها فعالة تكافؤية تدعى Sbert المعزز، حيث نستخدم المشفرين في التسمية مجموعة أكبر من أزواج المدخلات لزيادة بيانات التدريب الخاصة ببيانات التدريب. نظرا لأنه في هذه العملية، فإن اختيار أزواج الجملة غير تافهة وحاسمة لنجاح الطريقة. نقيم نهجنا على مهام متعددة (داخل المجال) وكذلك في مهمة تكيف مجال المجال. يحقق Sbert المعزز تحصين يصل إلى 6 نقاط مقابل المجال وعلى ما يصل إلى 37 نقطة لمهام تكيف المجال مقارنة بالأداء الأصلي ثنائي التشفير.
There are two approaches for pairwise sentence scoring: Cross-encoders, which perform full-attention over the input pair, and Bi-encoders, which map each input independently to a dense vector space. While cross-encoders often achieve higher performance, they are too slow for many practical use cases. Bi-encoders, on the other hand, require substantial training data and fine-tuning over the target task to achieve competitive performance. We present a simple yet efficient data augmentation strategy called Augmented SBERT, where we use the cross-encoder to label a larger set of input pairs to augment the training data for the bi-encoder. We show that, in this process, selecting the sentence pairs is non-trivial and crucial for the success of the method. We evaluate our approach on multiple tasks (in-domain) as well as on a domain adaptation task. Augmented SBERT achieves an improvement of up to 6 points for in-domain and of up to 37 points for domain adaptation tasks compared to the original bi-encoder performance.
المراجع المستخدمة
https://aclanthology.org/
مؤخرا، تستخدم الترجمة الآلية العصبية على نطاق واسع لدقة الترجمة عالية، ولكن من المعروف أيضا أن تظهر أداء ضعيف في ترجمة جماعية طويلة.الى جانب ذلك، يظهر هذا الاتجاه بشكل بارز لغات الموارد المنخفضة.نحن نفترض أن هذه المشاكل ناتجة عن جمل طويلة كونها قليلة
نقترح طريقة تكبير البيانات للترجمة الآلية العصبية.إنه يعمل عن طريق تفسير نماذج اللغة ومحاذاة الجمل الفعلية سببا.على وجه التحديد، فإنه يخلق كورس ترجمة موازية مزعجة عن طريق توليد عبارات محاذاة مضادة للمحاطة (المسار).نحن نولد هذه من خلال أخذ عينات من عب
غالبا ما يتحلل ترجمة لغة الإشارة (SLT) في التعرف على الفيديو إلى اللمعان والترجمة النصية إلى النص، حيث يكون اللمعان سلسلة من الكلمات اللغوية الموضحة باللغة المنطوقة بالترتيب الذي يتم فيه توقيعه.نحن نركز هنا على الترجمة اللامع إلى النص، والتي نعلمها ك
تعزز البيانات، التي تشير إلى معالجة المدخلات (على سبيل المثال، إضافة ضوضاء عشوائية، اخفاء أجزاء محددة) لتكبير مجموعة البيانات، تم اعتمادها على نطاق واسع في تعلم الجهاز.تعمل معظم تقنيات تكبير البيانات على إدخال واحد، مما يحد من تنوع كوربوس التدريب.في
على الرغم من كفاءتها المثبتة في المجالات الأخرى، فإن تكبير البيانات أقل شعبية في سياق معالجة اللغة الطبيعية (NLP) بسبب تعقيدها ونتائج محدودة.أظهرت دراسة حديثة (Longpre et al.، 2020) على سبيل المثال أن تعزز بيانات المهمة غير المرغوية تفشل في تعزيز أدا