ترغب بنشر مسار تعليمي؟ اضغط هنا

Hildif: تصحيح الأخطاء التفاعلية لنماذج NLI باستخدام وظائف التأثير

HILDIF: Interactive Debugging of NLI Models Using Influence Functions

407   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

يمكن أن تسبب التحيزات والتحف في البيانات التدريبية في سلوك غير مرحب به في نصوص النص (مثل مطابقة النمط الضحل)، مما يؤدي إلى عدم القدرة على التعميم.أحد الحلول لهذه المشكلة هو إدراج المستخدمين في الحلقة والاستفادة تعليقاتهم لتحسين النماذج.نقترح خط أنابيب تصحيح توضيحي جديد يسمى Hildif، مما يتيح البشر لتحسين أقراص نصية عميقة باستخدام وظائف التأثير كطريقة تفسير.نقوم بتجربة مهمة الاستدلال باللغة الطبيعية (NLI)، والتي تبين أن Hildif يمكن أن تخفف من مشاكل القطع الأثرية بشكل فعال في نماذج بيرت التي تم ضبطها بشكل جيد وتؤدي إلى زيادة التعميم النموذجي.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

تصحيح الأخطاء المجردة نموذج تعلم الجهاز أمر صعب للغاية حيث يشمل الخطأ عادة بيانات التدريب وعملية التعلم.يصبح هذا أكثر صعوبة بالنسبة لطراز التعلم العميق غير المشفح إذا لم يكن لدينا أدنى فكرة عن كيفية عمل النموذج بالفعل.في هذا الاستطلاع، نراجع الأوراق التي تستغلها تفسيرات لتمكين البشر من تقديم ملاحظات وتصحيح نماذج NLP.نسمي هذه المشكلة تصحيح الأخطاء البشرية القائم على التفسير (EBHD).على وجه الخصوص، نقوم بتصنيف وناقش العمل الحالي على طول ثلاثة أبعاد من EBHD (سياق الأخطاء، وسير العمل، والإعداد التجريبي)، تجميع النتائج حول كيفية تأثير مكونات EBHD على مقدمي التعليقات، وتسليط الضوء على المشاكل المفتوحة التي يمكن أن تكون اتجاهات بحثية في المستقبل.
لبناء أسئلة قوية لإجابة أنظمة الرد، نحتاج إلى القدرة على التحقق مما إذا كانت الإجابات على الأسئلة صحيحة حقا، وليس فقط جيدة بما فيه الكفاية "في سياق مجموعات بيانات QA غير الكاملة. نستكشف استخدام الاستدلال اللغوي الطبيعي (NLI) كوسيلة لتحقيق هذا الهدف، كما يتطلب NLI بطبيعته الفرضية (سياق المستند) لاحتواء جميع المعلومات اللازمة لدعم الفرضية (الإجابة المقترحة على السؤال). نستفيد النماذج الكبيرة المدربة مسبقا ومجموعات البيانات السابقة الأخيرة لبناء وحدات تحويل أسئلة قوية ووحدات فك التشفير، والتي يمكنها إعادة صياغة حالات ضمان الجودة كأزواج فرضية فرضية ذات موثوقية عالية جدا. ثم، من خلال الجمع بين مجموعات بيانات NLI القياسية مع أمثلة NLI تلقائيا من بيانات تدريب ضمان الجودة، يمكننا تدريب نماذج NLI لتقييم الإجابات المقترحة بنماذج QA. نظهر أن نهجنا يحسن تقدير ثقة نموذج ضمان الجودة عبر المجالات المختلفة، يتم تقييمها في إعداد ضمان الجودة الانتقائي. يظهر التحليل اليدوي الدقيق حول تنبؤات نموذج NLI الخاص بنا أنه يمكنه تحديد الحالات التي ينتج فيها نموذج ضمان الجودة الإجابة الصحيحة للسبب الخطأ، أي، عندما لا تستطيع جملة الإجابة معالجة جميع جوانب السؤال.
نقدم وكيل مخطط تفاعلي، وهو نظام تمكن المستخدمين من التلاعب مباشرة بالألوان باستخدام تعليمات اللغة الطبيعية داخل بيئة برمجة تفاعلية.خرائط عامل التآمر اللغة لتغطية التحديثات.نحن صياغة هذه المشكلة كملكة حوار حوار موجهة نحو المهام القائمة على فتحة، والتي نتصبها بنموذج تسلسل إلى تسلسل.لا يزال هذا النموذج المتاخطط أثناء وجود أخطاء في معظم الحالات، مما يجعل الأخطاء، لذلك، يتيح النظام وضع ردود الفعل، حيث يتم تقديم المستخدم بقائمة من المؤامرات الأعلى، والتي يمكن للمستخدم اختيار المرغوبة.من هذا النوع من ردود الفعل، يمكننا بعد ذلك، من حيث المبدأ، يتعلم باستمرار وتحسين النظام.بالنظر إلى أن التآمر يستخدم على نطاق واسع عبر الحقول التي يحركها البيانات، فإننا نعتقد أن مظاهرةنا ستكون مصلحة لكل من الممارسين مثل علماء البيانات المحددين على نطاق واسع، والباحثين المهتمين بواجهات اللغة الطبيعية.
على الرغم من نوعية جيدة بشكل جيد لأنظمة الترجمة الآلية (MT)، تتطلب مخرجات MT تصحيحات. تم تقديم نماذج ما بعد التحرير التلقائي (APE) لأداء هذه التصحيحات دون تدخل بشري. ومع ذلك، لا يتمكن أي نظام من أتمتة عملية التحرير بالكامل (PE). علاوة على ذلك، في حين أن العديد من أدوات الترجمة، مثل ذكريات الترجمة (TMS)، فإن الاستفادة إلى حد كبير من مدخلات المترجمين، لا يزال تفاعل الإنسان (HCI) محدودا عندما يتعلق الأمر ب PE. تناقش هذه الورقة المحرز في مجال البحث نماذج القرد وتقترح أنها يمكن تحسينها في سيناريوهات تفاعلية أكثر، كما فعلت سابقا في MT مع إنشاء أنظمة MT (IMT) التفاعلية. بناء على الفرضية التي ستستفيد PE من HCI، يتم اقتراح منهجيتين. كلاهما يشير إلى أن إعدادات التعلم الدفاعية التقليدية ليست الأمثل لل PE. بدلا من ذلك، يوصى بتدريب التقنيات عبر الإنترنت لتدريب وتحديث نماذج PE على الطاير، عبر التفاعلات الحقيقية أو المحاكاة مع المترجم.
يعاني تصحيح الخطأ النحوي (GEC) من عدم وجود بيانات متوازية كافية. اقترحت دراسات حول GEC عدة طرق لتوليد بيانات زائفة، والتي تشمل أزواج من الجمل النحوية والنصيع بشكل مصطنع. حاليا، فإن النهج السائد لتوليد بيانات الزائفة هو الترجمة مرة أخرى (BT). وقد استخ دمت معظم الدراسات السابقة باستخدام BT نفس الهندسة المعمارية لكل من نماذج GEC و BT. ومع ذلك، فإن نماذج GEC لها اتجاهات تصحيح مختلفة اعتمادا على بنية نماذجها. وبالتالي، في هذه الدراسة، نقارن اتجاهات تصحيح نماذج GEC المدربة على البيانات الزائفة التي تم إنشاؤها بواسطة ثلاث نماذج BT مع بنية مختلفة، وهي المحول، CNN، و LSTM. تؤكد النتائج أن ميول التصحيح لكل نوع خطأ مختلفة لكل طراز BT. بالإضافة إلى ذلك، يمكننا التحقيق في ميول التصحيح عند استخدام مجموعة من البيانات الزائفة الناتجة عن نماذج BT مختلفة. نتيجة لذلك، نجد أن مجموعة من نماذج BT المختلفة تتحسن أو تحسن أداء كل نوع من نوع الخطأ مقارنة باستخدام نموذج BT واحد مع بذور مختلفة.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا