ترغب بنشر مسار تعليمي؟ اضغط هنا

تحجيم حجم دفعة التعلم المتعاقبة عميق تحت الذاكرة محدودة الإعداد

Scaling Deep Contrastive Learning Batch Size under Memory Limited Setup

115   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

تم تطبيق التعلم المتعاقد بنجاح على تعلم تمثيلات ناقلات النص.أظهرت الأبحاث السابقة أن تعلم التمثيلات عالية الجودة يستفيد من الخسارة المنتاقبة ذات الدفعة الحكيمة مع عدد كبير من السلبيات.في الممارسة العملية، يتم استخدام تقنية السلبية الداخلية، حيث سيتم أخذ إيجازات مثال على كل مثال في دفعة أو أمثلة دفعة أخرى كملقياتها، وتجنب ترميز السلبيات الإضافية.ومع ذلك، ومع ذلك، لا تزال هذه الشروط خسارة كل مثال على جميع الأمثلة الدفاعية وتتطلب تركيب الدفعة الكبيرة بأكملها في ذاكرة GPU.تقدم هذه الورقة تقنية مخزئة للتدرج التي تعود فيها العدوى بين الخسارة الناقضة والتشمس، وإزالة التبعية لتشفير الترميز إلى الوراء على طول البعد الدفوع.نتيجة لذلك، يمكن حساب التدرجات لمجموعة فرعية واحدة من الدفعة في وقت واحد، مما يؤدي إلى استخدام الذاكرة المستمر تقريبا.

المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

أظهر تعلم التعزيز العميق إمكانات كبيرة في سياسات الحوار التدريبية. ومع ذلك، فإن أدائها المواتي يأتي بتكلفة العديد من جولات التفاعل. تعتمد معظم أساليب سياسة الحوار الحالية على نظام تعليمي واحد، في حين أن الدماغ البشري يحتوي على نظامين لتعلم وذاكرة متخ صصين، يدعمان لإيجاد حلول جيدة دون الحاجة إلى أمثلة غزيرة. مستوحاة من الدماغ البشري، تقترح هذه الورقة إطار عمل لتعلم السياسات التكميلي الرواية (CPL)، والتي تستغل المزايا التكميلية لسياسة الذاكرة العرضية (EM) وسياسة شبكة Q-Network (DQN) العميقة لتحقيق تعلم سياسة حوار سريعة وفعالة وبعد من أجل التنسيق بين السياسة، اقترحنا وحدة تحكم الثقة للسيطرة على الوقت التكميلي وفقا لفعولتها النسبية في مراحل مختلفة. علاوة على ذلك، يتم اقتراح اتصال الذاكرة وتقليم الوقت لضمان التعميم المرن والتكيف للسياسة EM في مهام الحوار. تظهر النتائج التجريبية على ثلاث مجموعات بيانات الحوار أن طريقتنا تتفوق بشكل كبير على الطرق الحالية التي تعتمد على نظام تعليمي واحد.
الملخص نقدم نموذجا يستند إلى الذاكرة للتحليل الدلالي المعتمد على السياق.تركز النهج السابقة على تمكين وحدة فك الترميز لنسخ أو تعديل التحليل من الكلام السابق، على افتراض وجود تبعية بين الحواجز الحالية والسابقة.في هذا العمل، نقترح تمثيل معلومات سياقية ب استخدام ذاكرة خارجية.نحن نتعلم وحدة تحكم ذاكرة السياق التي تدير الذاكرة عن طريق الحفاظ على المعنى التراكمي لإعلام المستخدمين المتسلسلين.نقيم نهجنا على ثلاثة معايير تحليل الدلالات.تظهر النتائج التجريبية أن طرازنا يمكن أن يقوم بتحسين معالجة المعلومات التي تعتمد على السياق وتظهر الأداء المحسن دون استخدام أجهزة فك تشفير المهام الخاصة.
حققت نماذج تمثيل اللغة المدربة مؤخرا مثل بيرت وروبرتا نتائج مهمة في مجموعة واسعة من مهام معالجة اللغة الطبيعية (NLP)، ومع ذلك، فإنها تتطلب تكلفة حسابية عالية للغاية.يعد تعلم المناهج الدراسية (CL) أحد الحلول المحتملة لتخفيف هذه المشكلة.CL هي استراتيجي ة تدريبية حيث يتم إعطاء عينات التدريب للنماذج بأمر هادف بدلا من أخذ العينات العشوائية.في هذا العمل، نقترح طريقة CL جديدة تدريجيا، مما يزيد تدريجيا من حجم نص المدخلات لتدريب آلية الانتباه الذاتي في بيرت ومتغيراته باستخدام الحد الأقصى للحجم الدفعة المتوفرة.تظهر التجارب في إعدادات الموارد المنخفضة أن نهجنا يفوق أن يؤدي إلى خط الأساس من حيث سرعة التقارب والأداء النهائي على مهام المصب.
في حين أن الأداء التنبئي لمحطات التبعية الإحصائية الحديثة يعتمد بشدة على توافر بيانات Treebank المشروح باهظة الثمن، إلا أن جميع التعليقات التعليقات التوضيحية تسهم على قدم المساواة في تدريب المحللين.في هذه الورقة، نحاول تقليل عدد الأمثلة المسماة اللاز مة لتدريب محلل التبعية القوي باستخدام دفعة التعلم النشطة (AL).على وجه الخصوص، يمكننا التحقيق فيما إذا كانت تنفذ التنوع في دفعات العينات، باستخدام عمليات النقاط الحتمية (DPPS)، يمكن أن تتحسن من نظرائها التنوع المرجح.تظهر تجارب المحاكاة على كوربوس الإنجليزي Newswire أن اختيار دفعات متنوعة مع DPPS متفوقة على استراتيجيات الاختيار القوية التي لا تنفذ التنوع الدفاعي، خاصة خلال المراحل الأولية لعملية التعلم.بالإضافة إلى ذلك، فإن استراتيجيتنا الإدراك الخاصة بالتنوع قوية بموجب إعداد ازدواجية كوربوس، حيث تظهر استراتيجيات أخذ العينات اللاإرادية للتنوع تدهورا كبيرا.
حققت شبكات الخصومة التوليدية (GANS) نجاحا كبيرا في توليف الصور، لكنه أثبت أنه من الصعب توليد لغة طبيعية. التحديات تنشأ من إشارات التعلم غير المنفصلة التي تم تمريرها من التمييز. وبعبارة أخرى، فإن إشارات التعلم السيئة تحد من قدرة التعلم لتوليد اللغات م ع الهياكل والدلالات الغنية. في هذه الورقة، نقترحنا اعتماد طريقة التعلم المضاد للتعبير (CCL) لدعم تدريب المولد في محكمة اللغات. على النقيض من الجنانيين القياسيين الذين يعتمدون مصنف ثنائي بسيط للتمييز عما إذا كانت العينة حقيقية أو مزيفة، فإننا نوظف إشارة تعليمية مضادة للتناقض التي تقدم تدريبا على تدريب أجهزة اللغات بواسطة (1) سحب تمثيلات اللغة للعينات الناتجة والرصيصة معا و (2) دفع تمثيلات العينات الحقيقية للتنافس مع التمييز وبالتالي تمنع التمييز عن التمييز. نقيم طريقتنا على كل من المعايير الاصطناعية والحقيقة وتحصل على أداء تنافسي مقارنة بالجنطات السابقة لتوليد التسلسل الخصم.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا