أدى اعتماد النماذج القائمة على المحولات في معالجة اللغة الطبيعية (NLP) إلى نجاح كبير باستخدام عدد ضخم من المعلمات. ومع ذلك، نظرا لقيود النشر في أجهزة الحافة، كان هناك اهتمام متزايد في ضغط هذه النماذج لتحسين وقت استئنافهم وبصمة الذاكرة. تعرض هذه الورقة هدف خسارة رواية لضغط Token Ageddings في النماذج القائمة على المحولات من خلال الاستفادة من بنية AutoNCoder. وبشكل أكثر تحديدا، نؤكد على أهمية اتجاه المدينات المضغوطة فيما يتعلق بالمظلات الأصلية غير المضغوطة. الطريقة المقترحة هي المهام الملحد ولا يتطلب نمذجة لغة أخرى قبل التدريب. يتفوق طريقنا بشكل كبير على نهج مصفوفة مصفوفة SVD شائعة الاستخدام من حيث حيرة نموذج اللغة الأولي. علاوة على ذلك، نقوم بتقييم نهجنا المقترح بشأن مجموعة بيانات Squad V1.1 والعديد من مهام المصب من معيار الغراء، حيث نتفوق أيضا على الأساس في معظم السيناريوهات. كودنا هو الجمهور.
The adoption of Transformer-based models in natural language processing (NLP) has led to great success using a massive number of parameters. However, due to deployment constraints in edge devices, there has been a rising interest in the compression of these models to improve their inference time and memory footprint. This paper presents a novel loss objective to compress token embeddings in the Transformer-based models by leveraging an AutoEncoder architecture. More specifically, we emphasize the importance of the direction of compressed embeddings with respect to original uncompressed embeddings. The proposed method is task-agnostic and does not require further language modeling pre-training. Our method significantly outperforms the commonly used SVD-based matrix-factorization approach in terms of initial language model Perplexity. Moreover, we evaluate our proposed approach over SQuAD v1.1 dataset and several downstream tasks from the GLUE benchmark, where we also outperform the baseline in most scenarios. Our code is public.
المراجع المستخدمة
https://aclanthology.org/
ندرس قوة الاهتمام الشامل في بنية المحولات في سياق نقل التعلم للترجمة الآلية، وتوسيع نتائج الدراسات في انتباه متقاطع عند التدريب من الصفر.نقوم بإجراء سلسلة من التجارب من خلال ضبط نموذج الترجمة بشكل جيد على البيانات حيث تغيرت المصدر أو اللغة المستهدفة.
في هذه الورقة، نصف نظامنا المستخدم في مهمة Semeval 2021 7: hahackathon: الكشف عن الفكاهة والجريمة.استخدمنا نهجا بسيطا للضبط باستخدام نماذج لغة مدربة مسبقا مختلفة (PLMS) لتقييم أدائها للكشف عن الفكاهة والجريمة.بالنسبة لمهام الانحدار، بلغنا متوسط عدد ا
تقدم هذه الورقة نظامنا للحصول على تحديد كمية الكمية، وحدة تحديد الهوية القياس وتصنيف مستوى القيمة الفرعية من المهمة 2021.كان الغرض من مهمة تحديد الكمية تحديد موقع تحديد موقع تمديد النصوص التي تحتوي على عدد أو قياس، يتكون من قيمة، يتبعها عادة وحدة ومع
تم اقتراح نماذج إتمام المعرفة الزمنية المختلفة (KG) في الأدب الحديث. تحتوي النماذج عادة على جزأين، وهي طبقة تضمين زمنية ووظيفة نتيجة مشتقة من نهج النمذجة الثابتة الحالية. نظرا لأن النهج تختلف عدة أبعاد، بما في ذلك وظائف النتيجة المختلفة واستراتيجيات
تعتبر Adgedding Word ضرورية لنماذج الشبكة العصبية لمختلف مهام معالجة اللغة الطبيعية. نظرا لأن كلمة تضمينها عادة ما يكون لها حجم كبير، من أجل نشر نموذج شبكة عصبي وجوده على أجهزة Edge، يجب ضغطه بشكل فعال. كانت هناك دراسة لاقتراح طريقة تقريبية منخفضة رت