ترغب بنشر مسار تعليمي؟ اضغط هنا

تحليل التفسير والسببية المحبوس في نماذج NLP العميقة

Fine-grained Interpretation and Causation Analysis in Deep NLP Models

302   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

دفعت الشبكات العصبية العميقة باستمرار الأداء الحديث في معالجة اللغة الطبيعية ويعتبر نهج النمذجة في الواقع في حل مهام NLP المعقدة مثل الترجمة الآلية والتلخيص والرد على السؤال. على الرغم من الفعالية المثبتة للشبكات العصبية العميقة، فإن معرضهم هو سبب رئيسي للقلق. في هذا البرنامج التعليمي، سنقدم أعمال البحث في تفسير مكونات الرواية الدقيقة لطراز الشبكة العصبية من وجهات نظر، ط) ترجمة التفسير الدقيقة، والثاني) تحليل السببية. السابق هو فئة من الأساليب لتحليل الخلايا العصبية فيما يتعلق بمفهوم اللغة المطلوب أو مهمة. تدرس الأخير دور الخلايا العصبية وميزات المدخلات في شرح القرارات التي اتخذها النموذج. سنناقش أيضا كيف يمكن لأساليب التفسير وتحليل السببية الاتصال بتثبيته بشكل أفضل لتنبؤ النموذج. أخيرا، سوف نسير إليك من خلال مجموعة أدوات مختلفة تسهل تحليل التفسير والسبابة الراسخة من النماذج العصبية.

المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

تصحيح الأخطاء المجردة نموذج تعلم الجهاز أمر صعب للغاية حيث يشمل الخطأ عادة بيانات التدريب وعملية التعلم.يصبح هذا أكثر صعوبة بالنسبة لطراز التعلم العميق غير المشفح إذا لم يكن لدينا أدنى فكرة عن كيفية عمل النموذج بالفعل.في هذا الاستطلاع، نراجع الأوراق التي تستغلها تفسيرات لتمكين البشر من تقديم ملاحظات وتصحيح نماذج NLP.نسمي هذه المشكلة تصحيح الأخطاء البشرية القائم على التفسير (EBHD).على وجه الخصوص، نقوم بتصنيف وناقش العمل الحالي على طول ثلاثة أبعاد من EBHD (سياق الأخطاء، وسير العمل، والإعداد التجريبي)، تجميع النتائج حول كيفية تأثير مكونات EBHD على مقدمي التعليقات، وتسليط الضوء على المشاكل المفتوحة التي يمكن أن تكون اتجاهات بحثية في المستقبل.
BertScore، متري التلقائي المقترح مؤخرا لجودة الترجمة الآلية، تستخدم بيرت، نموذج لغة كبير مدرب مسبقا لتقييم ترجمات المرشحين فيما يتعلق بالترجمة الذهبية. الاستفادة من قدرات بيرت الدلالية والنزالية، تسعى BertScore إلى تجنب عيوب النهج السابقة مثل بلو، بد لا من ذلك تسجيل ترجمات المرشحين بناء على تشابههم الدلالي لحكم الذهب. ومع ذلك، بيرت ليست معصومة؛ في حين أن أدائها في مهام NLP، حددت حالة من الفن الجديد بشكل عام، فقد أظهرت دراسات ذات ظواهر النحوية والدلية المحددة أين ينحرف أداء بيرت عن حالة البشر بشكل عام. هذا يثير بشكل طبيعي الأسئلة التي نعالجها في هذه الورقة: ما هي نقاط القوة والضعف في BertScore؟ هل يرتبطون بالضعف المعروفين من جانب بيرت؟ نجد أنه في حين أن BertScore يمكن أن يكتشف عندما يختلف المرشح عن مرجع في كلمات محتوى مهمة، فهو أقل حساسية للأخطاء الأصغر، خاصة إذا كان المرشح مشابه بشكل جذري أو بشكل مصمم مرجع.
يهدف هذا التقرير الفني إلى المهمة المشتركة في Rocling 2021: تحليل المعنويات الأبعاد للنصوص التعليمية.من أجل التنبؤ بالحالات العاطفية للنصوص التعليمية الصينية، نقدم إطارا عمليا من خلال توظيف نماذج اللغة المدربة مسبقا، مثل بيرت و Macbert.يمكن استخلاص ا لعديد من الملاحظات والتحليلات القيمة من سلسلة من التجارب.من النتائج، نجد أن الأساليب المستندة إلى Macbert يمكن أن توفر نتائج أفضل من الأساليب القائمة على BERT على مجموعة التحقق.لذلك، نحن متوسط نتائج التنبؤ بالعديد من النماذج التي تم الحصول عليها باستخدام إعدادات مختلفة كإخراج نهائي.
هجمات الخصومة تغيير تنبؤات نموذج NLP من خلال اضطراب مدخلات وقت الاختبار.ومع ذلك، فمن الأقل تفهم سواء، وكيف يمكن التلاعب بالتنبؤات مع تغييرات صغيرة مخفية في بيانات التدريب.في هذا العمل، نقوم بتطوير هجوم جديد لتسمم البيانات يتيح خصما للسيطرة على تنبؤات النموذج كلما كانت عبارة الزناد المرغوبة موجودة في المدخلات.على سبيل المثال، ندرج 50 أمثلة سامة في مجموعة تدريب طراز المعنويات التي تسبب النموذج يتوقع بشكل متكرر إيجابية كلما كان الإدخال يحتوي على جيمس بوند ".من الأهمية، نحن نقوم بتحرير هذه الأمثلة السامة باستخدام إجراء يستند إلى التدرج حتى لا يذكر عبارة الزناد.نحن نطبق أيضا هجوم السم لدينا على نمذجة اللغة (تشغيل Apple iPhone "يؤدي إلى الأجيال السلبية) والترجمة الآلية (" القهوة المثلجة "التي يتم إساءة فهمها كقهوة ساخنة").نستنتج من خلال اقتراح ثلاثة دفاعات يمكن أن تخفف من هجومنا على بعض التكلفة في دقة التنبؤ أو الشرح البشري الإضافي.
إن مهمة التشخيص التلقائي تشفيرها في التصنيفات الطبية القياسية والاتحاد، لها أهمية كبيرة في الطب - كلاهما لدعم المهام اليومية للأطباء في إعداد الوثائق السريرية والإبلاغ عن التقارير السريرية. في هذه الورقة، نحقق في تطبيق وأداء محولات التعلم العميق المخ تلفة للترميز التلقائي في ICD-10 من النصوص السريرية في البلغارية. يحاول التحليل المقارن العثور على النهج الذي هو أكثر كفاءة لاستخدامه في ضبط محول الأسرة برت المحدود إلى التعامل مع مصطلحات مجال معين على لغة نادرة مثل البلغارية. على جانب واحد، تستخدم سلافيكبرت و Multirigualbert، والتي يتم الاحترام من أجل المفردات الشائعة في البلغارية، ولكن تفتقر إلى المصطلحات الطبية. من ناحية أخرى، يتم استخدام BioBert، Clinicalbert، Sapbert، Bluebert، والتي يتم الاحتراج بها للمصطلحات الطبية باللغة الإنجليزية، ولكنها تفتقر إلى التدريب لنماذج اللغة باللغة البلغارية، وأكثر من اللازم للمفردات في السيريلية. في دراسة الأبحاث الخاصة بنا، يتم ضبط جميع نماذج Bert بشكل جيد مع نصوص طبية إضافية في البلغارية ثم تطبق على مهمة التصنيف لترميز التشخيصات الطبية في البلغارية في رموز ICD-10. يستخدم Big Corpora للتشخيص في البلغاري المشروح مع رموز ICD-10 لمهمة التصنيف. يمنح مثل هذا التحليل فكرة جيدة عن النماذج مناسبة لمهام نوع مماثل ومجال. تظهر نتائج التجارب والتقييم أن كلا النهجتين لها دقة مماثلة.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا