ترغب بنشر مسار تعليمي؟ اضغط هنا

التحقيق عبر الوقت: ماذا يعرف روبرتا ومتى؟

Probing Across Time: What Does RoBERTa Know and When?

339   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

لقد أظهرت نماذج اللغة المدربة على كورسا كبيرة جدا مفيدة لمعالجة اللغة الطبيعية. كأداة أثرية ثابتة، أصبحوا موضوعا للدراسة المكثفة، حيث يحكم العديد من الباحثين "مدى الحصول عليها والذي يثبت بسهولة التجريد اللغوي ومعرفة الواقعية والعمومية وقدرات التفكير. تطبيق العمل الحديث عدة تحقيقات مراحل التدريب المتوسطة لمراقبة العملية التنموية للنموذج الواسع النطاق (شيانغ وآخرون، 2020). بعد هذا الجهد، نجيب بشكل منهجي على سؤال: لأنواع مختلفة من المعرفة يتعلم نموذج اللغة، عند التدريب أثناء (قبل) هل تم الحصول عليها؟ باستخدام روبرتا كدراسة حالة، نجد: يتم الحصول على المعرفة اللغوية بسرعة، ثابتة، قوية عبر المجالات. الحقائق والعموم أبطأ وأكثر حساسية للنطاق. القدرات المنطقية هي، بشكل عام، لا تكتسب بشكل ثابت. كشركات بيانات جديدة، بروتوكولات محدبة، بروتوكولات وبروتوكولات وإثبات تظهر، نعتقد أن التحليلات الواردة في الوقت المحدد يمكن أن تساعد الباحثين على فهم التعلم المعقدة والخيول أن هذه النماذج تخضع لنا وتوجيهنا نحو نهج أكثر كفاءة التي تحقق التعلم اللازم بشكل أسرع.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

في مهام التحقق من القراءة في الجهاز، يجب على النموذج استخراج إجابة من السياق المتاح بالنظر إلى سؤال ومقطع.في الآونة الأخيرة، حققت نماذج اللغة المدربة مسبقا للمحولات أداء حديثة في العديد من مهام معالجة اللغة الطبيعية.ومع ذلك، فمن غير الواضح ما إذا كان هذا الأداء يعكس فهم اللغة الحقيقية.في هذه الورقة، نقترح أمثلة خصومة لتحقيق نموذج لغة عربية مدربة مسبقا (أرابيرت)، مما يؤدي إلى انخفاض كبير في الأداء على أربع مجموعات من مجموعات بيانات آلية قراءة آليا.نقدم تحليلا حكيما للدول الخفية للمحول لتقديم رؤى حول كيفية استكمال أسباب أرابيرت إجابة.تشير التجارب إلى أن أرابت يعتمد على الإشارات السطحية ومطابقة الكلمات الرئيسية بدلا من فهم النص.علاوة على ذلك، يوضح تصور الدولة المخفية أن أخطاء التنبؤ يمكن التعرف عليها من تمثيلات ناقلات في الطبقات السابقة.
تتمثل النهج المهيمن في التحقيق في الشبكات العصبية للعقارات اللغوية في تدريب Perceptron متعدد الطبقات الضحلة (MLP) على رأس التمثيلات الداخلية للنموذج. يمكن لهذا النهج اكتشاف الخصائص المشفرة في النموذج، ولكن بتكلفة إضافة معلمات جديدة قد تتعلم المهمة مب اشرة. نقترح بدلا من ذلك، حيث نقترح مسبارا شبه جذاب، حيث نجد شبكة فرعية حالية تؤدي المهمة اللغوية المصالحة. بالمقارنة مع MLP، تحقق مسبار الشبكة الفرعية كلتا الدقة العليا على النماذج المدربة مسبقا ودقة منخفضة على النماذج العشوائية، لذلك فهي أفضل في العثور على خصائص ذات أهمية وأسوأ من التعلم بمفردها. بعد ذلك، من خلال اختلاف تعقيد كل مسبار، نوضح أن التحقيق في الشبكة الفرعية التي يسيطر عليها البريتو - يحقق في تحقيق الدقة العليا التي تحقق أي ميزانية تعقيد التحقيق. أخيرا، نقوم بتحليل شبكات فرعية الناتجة الناتجة في مختلف المهام لتحديد مكان ترميز كل مهمة، ونتجد أن المهام ذات المستوى الأدنى يتم التقاطها في طبقات أقل، إعادة إنتاج نتائج مماثلة في العمل الماضي.
تحليل المعنويات المستندة إلى جانب الجسيم (ABASA)، تهدف إلى التنبؤ بأقطاب الجوانب، هي مهمة جيدة المحبوس في مجال تحليل المعنويات. وأظهر العمل السابق معلومات النحوية، على سبيل المثال أشجار التبعية، يمكن أن تحسن بشكل فعال أداء ABSA. في الآونة الأخيرة، أظ هرت النماذج المدربة مسبقا (PTMS) أيضا فعاليتها على ABAMA. لذلك، تنشأ السؤال بشكل طبيعي ما إذا كانت PTMs تحتوي على معلومات نصنية كافية ل ABAMA حتى نتمكن من الحصول على نموذج ABSA جيد فقط بناء على PTMS. في هذه الورقة، نقارن أولا الأشجار المستحثة من PTMS وأشجار تحليل التبعية في العديد من النماذج الشعبية لمهمة ABASA، والتي توضح أن الشجرة المستحقة من روبرتا الصعبة (FT-Roberta) تتفوق على الشجرة التي قدمتها المحلل المحاور. تكشف تجارب التحليل الإضافي أن شجرة FT-Roberta المستحقة أكثر من المعنويات - الموجهة إلى كلمة ويمكن أن تفيد مهمة ABASA. تشير التجارب أيضا إلى أن النموذج النقي المستند إلى روبرتا يمكن أن تفوق أو تقريب من عروض SOTA السابقة على ست مجموعات بيانات عبر أربع لغات لأنها تتضمن ضمنيا المعلومات الأساسية الموجهة نحو المهام.
تجسد السخرية والشعور من عدم اليقين الجوهري للإدراك الإنساني، مما يجعل الكشف المشترك عن السخرية متعددة الوسائط ومشاعر مهمة صعبة. في ضوء مزايا الاحتمالات الكمومية (QP) في نمذجة هذا الشكوك، تستكشف هذه الورقة إمكانات QP كإطار رياضي وتقترح إطارا للتعليم م تعدد المهام المدفوعة من QP (QPM). ينطوي إطار QPM على تشفير تمثيل متعدد الوسائط متعدد الأوضاع، وهي فرعية فرعية تشبه الاصطدام الكمومية وآلية قياس الكم. يتم ترميز كل الكلام متعدد الوسائط (على سبيل المثال، النصي، المرئي البصري) لأول مرة كتراكبة كمية لمجموعة من المصطلحات الأساس باستخدام تمثيل ذو قيمة معقدة. بعد ذلك، يرفع الشبكة الفرعية التي تشبه الكتابة الكمومية تكوين الدولة الكم وتدخل الكم لنموذج التفاعل السياقي بين الكلام المجاورة والارتباطات عبر الطرائق على التوالي. أخيرا، يتم إجراء القياسات الكمية غير المتوافقة على التمثيل المتعدد الوسائط لكل كلام لإحداث النتائج الاحتمالية من السخرية والاعتراف بالمشاعر. تظهر النتائج التجريبية أن نموذجنا يحصل على أداء حديثة.
تقدم هذه الورقة تقديم نظامنا إلى المهمة 5: تمثل المسابقة السامة من مسابقة Semeval-2021.تهدف المنافسة إلى اكتشاف الجرف الذي يصنع سامة سامة.في هذه الورقة، نوضح نظامنا للكشف عن المواقف السامة، والتي تشمل توسيع نطاق التدريب السام الذي تم تعيينه مع تفسيرا ت نموذجية غير مرغوية للطراز المحلي (الجير)، وطيب الروبيرتا الناعم للكشف، وتحليل الأخطاء.وجدنا أن إطعام النموذج مع مجموعة تدريبية موسعة باستخدام تعليقات Reddit من السماد المستقطب والسمية مع الجير على رأس تصنيف الانحدار اللوجستي يمكن أن يساعد روبرتا على تعلم أكثر دقة التعرف على الأمور السامة.حققنا درجة F1 المستفادة من 0.6715 على مرحلة الاختبار.تظهر نتائجنا الكمية والنوعية أن التنبؤات من نظامنا يمكن أن تكون ملحقا جيدا لشروح مجموعة تدريب الذهب.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا