حقق محول ومتغيراتها نجاحا كبيرا في معالجة اللغة الطبيعية.نظرا لأن طرازات المحولات ضخمة الحجم، فإن خدمة هذه النماذج هي تحديا للتطبيقات الصناعية الحقيقية.في هذه الورقة، نقترح، مكتبة الاستدلال عالية الكفاءة للنماذج في عائلة المحولات.يتضمن سلسلة من تقنيات تحسين GPU لكلا من تبسيط حساب طبقات المحولات وتقليل بيانات الذاكرة.يدعم النماذج المدربة باستخدام Pytorch و Tensorflow.النتائج التجريبية على معايير الترجمة الآلية القياسية تظهر أنها تحقق تصل إلى 14x تسريع مقارنة مع Tensorflow وتسريع 1.4x مقارنة مع تنفيذ CUDA المتزامن.سيتم إصدار الرمز علنا بعد المراجعة.
Transformer and its variants have achieved great success in natural language processing. Since Transformer models are huge in size, serving these models is a challenge for real industrial applications. In this paper, we propose , a highly efficient inference library for models in the Transformer family. includes a series of GPU optimization techniques to both streamline the computation of Transformer layers and reduce memory footprint. supports models trained using PyTorch and Tensorflow. Experimental results on standard machine translation benchmarks show that achieves up to 14x speedup compared with TensorFlow and 1.4x speedup compared with , a concurrent CUDA implementation. The code will be released publicly after the review.
المراجع المستخدمة
https://aclanthology.org/
تصف الورقة توضيحات TENTRANS إلى المهمة المشتركة ل WMT 2021 المشتركة.نستكشف تدريب مجموعة متنوعة من نماذج محولات الصغار الأصغر باستخدام إعداد المعلمين - طالب.يتم تدريب نموذجنا من خلال منصة تدريب متعددة اللغات المتطورة ذاتية اللغات ذاتية اللغويةونحن نطل
يقوم هذا البحث على دراسة اخر التطورات والاحداث في مجال الحوسبة عالية الأداء، والتي تقوم على توفير البنية التحتية والبيئة المناسبة والمستلزمات العتادية والبرمجية، مما يسمح بحل المسائل والرياضية والبيولوجية وتدريب نماذج الذكاء الاصطناعي والقيام بمحاكاة
تعتمد معظم خوارزميات التوقيع الرقمي الحالية في بنيتها على مفاهيم رياضية معقدة
يتطلب تنفيذها وقتاً طويلاً و جيداً حسابياً كبيرا. و كمحاولة للتخفيف من هذه المشاكل
اقترح بعض الباحثون خوارزميات توقيع رقمي تعتمد على توابع و عمليات حسابية بسيطة
سريعة التنفيذ، إلا أن ذلك كان على حساب الأمان.
نقوم بتطوير نهج رواية للاستدلال بثقة في المحولات متعددة الطبقات الكبيرة والمكلفة الآن في كل مكان في معالجة اللغة الطبيعية (NLP).تؤدي الأساليب الحسابية المطفأة أو التقريبية إلى زيادة الكفاءة، ولكن يمكن أن تأتي مع تكاليف أداء غير متوقعة.في هذا العمل، ن
نماذج المحولات هي التقليب equivariant.لتزويد الطلب واكتب معلومات الرموز المميزة والإدخال، عادة ما تتم إضافتها إلى المدخلات.تعمل الأعمال الأخيرة الاختلافات المقترحة من الترميزات الموضعية مع ترميزات الموضع النسبي تحقيق أداء أفضل.يوضح تحليلنا أن المكسب