ترغب بنشر مسار تعليمي؟ اضغط هنا

التدريب الخصم لآلة القراءة الفهم مع التضفيين الظاهري

Adversarial Training for Machine Reading Comprehension with Virtual Embeddings

538   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

لقد أثبتت تدريب الخصم (AT) كطريقة تنظيمي فعاليتها على المهام المختلفة.على الرغم من وجود تطبيقات ناجحة في بعض مهام NLP، إلا أن الخصائص المميزة لمهام NLP لم يتم استغلالها.في هذه الورقة، نهدف إلى تطبيق مهام فهم القراءة (MRC).علاوة على ذلك، فإننا نتكيف مع مهام MRC من خلال اقتراح طريقة تدريبية عديدة جديدة تسمى PQAT التي تتعلق بمصفوفة التضمين بدلا من ناقلات Word.للتمييز بين أدوار الممرات والأسئلة، يستخدم PQAT مصفوفات إضافية P / Q Directding إضافية لجمع الاضطرابات العالمية للكلمات من الممرات والأسئلة بشكل منفصل.نحن نختبر الطريقة على مجموعة واسعة من مهام MRC، بما في ذلك RC الاستخراجية المستندة إلى RC واستخراج RC متعددة الخيارات.تظهر النتائج أن التدريب الخصم فعال عالميا، ويحسن PQAT الأداء.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

آلة القراءة الفهم هي مهمة صعبة خاصة للاستعلام عن المستندات ذات السياقات العميقة والترابطية.أظهرت الطرق المستندة إلى المحولات عروضا متقدمة في هذه المهمة؛ومع ذلك، فإن معظمهم لا يزال يعاملون المستندات كمتسلسلة مسطحة من الرموز.يقترح هذا العمل طريقة جديدة قائمة على المحولات التي تقرأ مستند كشرائح شجرة.يحتوي على وحديتين لتحديد المزيد من مقاطع النص ذات الصلة وأفضل إجابة سبان على التوالي، والتي لا يتم تدريبها بشكل مشترك فقط ولكن أيضا تشاور بشكل مشترك في وقت الاستدلال.تظهر نتائج تقييمنا أن أسلوبنا المقترح تتفوق على العديد من النهج الأساسية التنافسية على مجموعة بيانات من مجالات متنوعة.
نقدم خوارزمية تدريبية مستهدفة بسيطة ولكنها فعالة (TAT) لتحسين التدريب الخصم لفهم اللغة الطبيعية.الفكرة الرئيسية هي أن تخطئ الأخطاء الحالية وتحديد أولويات التدريب على الخطوات إلى حيث يخطئ النموذج أكثر.تظهر التجارب أن TAT يمكن أن تحسن بشكل كبير الدقة ع لى التدريب الخصم القياسي على الغراء وتحقيق نتائج جديدة من أحدث النتائج في XNLI.سيتم إصدار شفرة لدينا عند قبول الورقة.
حققت النماذج المدربة مسبقا للمحولات، مثل بيرت، نتائج رائعة بشأن فهم القراءة في الآلة. ومع ذلك، نظرا لقيود طول الترميز (E.G.، 512 Tokenspece)، عادة ما يتم تقسيم وثيقة طويلة إلى قطع متعددة يتم قراءتها بشكل مستقل. ينتج عن أن حقل القراءة يقتصر على القطع الفردية دون تعاون المعلومات لفهم قراءة آلات المستندات الطويلة. لمعالجة هذه المشكلة، نقترح ROR، وهي طريقة للقراءة للقراءة، والتي تقوم بتوسيع حقل القراءة من قطعة إلى المستند. على وجه التحديد، يتضمن ROR قارئ قطعة وقارئ مستند. السابق يتوقع أولا مجموعة من الإجابات الإقليمية لكل قطعة، والتي يتم ضغطها بعد ذلك في إصدارا كبيرا مكثفا من المستند الأصلي، مما يضمن ترميزه مرة واحدة. يتنبأ الأخير كذلك بالإجابات العالمية من هذه الوثيقة المكثفة. في النهاية، يتم استخدام استراتيجية التصويت إلى إجمالي الإجابات الإقليمية والعالمية للتنبؤ النهائي. تثبت تجارب واسعة على معيارين Quac و Triviaqa فعالية ROR للحصول على قراءة المستندات الطويلة. والجدير بالذكر أن ROR يحتل المرتبة الأولى على المتصدرين Quac (https://quac.ai/) في وقت التقديم (17 مايو، 2021).
تدريب الخصم، طريقة لتعلم الشبكات العصبية العميقة القوية، تضم أمثلة خصومة أثناء التدريب. ومع ذلك، فإن الأساليب الحديثة لتوليد أمثلة allp adversarial تنطوي على البحث عن الفروضي وترميز الجملة باهظة الثمن لتقييد الحالات التي تم إنشاؤها. نتيجة لذلك، لا يز ال يمثل تحديا لاستخدام التدريب المشدود الفانيليا لتحسين أداء نماذج NLP، والفوائد غير مرئية بشكل أساسي. تقترح هذه الورقة عملية تدريبية بسيطة ومحسنة من الفانيليا العدائية لنماذج NLP، والتي نستها المهاجمة على التدريب (A2T). الجزء الأساسي من A2T هو هجوم استبدال كلمة جديدة وأرخص محسن لتدريب الفانيليا الخصم. نحن نستخدم A2T لتدريب برت ونماذج روبرتا على مجموعة بيانات IMDB والطماطم الفاسدة والشبكة الصلبة و SNLI. تظهر نتائجنا تجريبيا أنه من الممكن تدريب نماذج NLP قوية باستخدام خصم أرخص بكثير. نوضح أن التدريب الصادق للفانيليا مع A2T يمكن أن يحسن متانة نموذج NLP للهجوم الذي تم تدريبه في الأصل مع النموذج الذي يدافع عنه أيضا ضد أنواع أخرى من هجمات استبدال الكلمات. علاوة على ذلك، نظهر أن A2T يمكن أن تحسن الدقة القياسية لنماذج NLP وتعميم المجال المتبادل والتفسيرية.
آلة قراءة الآلة (MRC) هي واحدة من أكثر المهام تحديا في مجال معالجة اللغة الطبيعية. تم تحقيق نتائج أحدث حديثة ل MRC بنماذج اللغة المدربة مسبقا، مثل بيرت وتعديلاتها. على الرغم من ارتفاع الأداء لهذه النماذج، إلا أنهم لا يزالون يعانون من عدم القدرة على ا سترداد الإجابات الصحيحة من الممرات التفصيلية الطويلة. في هذا العمل، نقدم مخططا جديدا لإدماج هيكل الخطاب للنص في شبكة انتباهي، وبالتالي إثراء التضمين الذي تم الحصول عليه من ترميز بيرت القياسي مع المعرفة اللغوية الإضافية. نحقق أيضا في تأثير أنواع مختلفة من المعلومات اللغوية عن قدرة النموذج على الإجابة على الأسئلة المعقدة التي تتطلب فهم عميق للنص بأكمله. أظهرت التجارب التي تم إجراؤها على مرجع الفريق وأكثر تعقيدا عن مجموعات بيانات الأجابة أن المعزز اللغوي يعزز أداء نموذج بيرت القياسي بشكل كبير.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا