ترغب بنشر مسار تعليمي؟ اضغط هنا

Questeval: تلخيص يسأل عن التقييم القائم على الحقائق

QuestEval: Summarization Asks for Fact-based Evaluation

543   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

لا يزال تقييم التلخيص مشكلة بحث مفتوحة: من المعروف أن المقاييس الحالية مثل الحمر محدودة وربطها بشكل سيء بأحكام بشرية.لتخفيف هذه المسألة، اقترحت العمل الحديث مقاييس التقييم التي تعتمد على الأسئلة في الإجابة على النماذج لتقييم ما إذا كان الملخص يحتوي على جميع المعلومات ذات الصلة في وثيقتها المصدر.على الرغم من الواعدة، إلا أن النهج المقترحة فشلت حتى الآن في الارتباط بشكل أفضل من الحمر بأحكام بشرية.في هذه الورقة، نقدم النهج السابقة واقتراح إطار موحد، يدعى Questeval.على عكس مقاييس ثابتة مثل Rouge أو Bertscore، لا يتطلب Questeval أي مرجع حقيقي في الحقيقة.ومع ذلك، فإن Questeval يحسن بشكل كبير من الارتباط بالأحكام البشرية على أربع أبعاد تقييم (الاتساق والتماسك والطلاقة والأهمية)، كما هو مبين في تجارب واسعة النطاق.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

Rouge هو متري تقييم واسع الاستخدام في تلخيص النص.ومع ذلك، فإنه غير مناسب لتقييم أنظمة تلخيص الجماع حيث تعتمد على التداخل المعجمي بين معيار الذهب والملخصات التي تم إنشاؤها.يصبح هذا القيد أكثر وضوحا للغات الشاقة مع المفردات الكبيرة جدا ونسب عالية النوع / الرمز المميز.في هذه الورقة، نقدم نماذج التشابه الدلالي لأتراك وتطبيقها كقائد تقييم لمهمة تلخيص مبادرة.لتحقيق ذلك، قامنا بترجمة مجموعة بيانات STSB الإنجليزية إلى تركية وعرضت بيانات التشابه الدلالي الأول للتركية أيضا.أظهرنا أن أفضل نماذج التشابه لدينا لها محاذاة أفضل مع الأحكام البشرية المتوسطة مقارنة بالحصان في كل من علاقات بيرسون ورأس.
توفر الجداول معرفة قيمة يمكن استخدامها للتحقق من العبارات النصية. في حين أن عددا من الأعمال قد نظر في التحقق من الحقائق القائم على الطاولة، فإن المحاذاة المباشرة للبيانات الجذابية مع الرموز في البيانات النصية نادرا ما توفرها. علاوة على ذلك، فإن تدريب نموذج التحقق من الحقائق المعممة يتطلب بيانات تدريبية ملصقة وفيرة. في هذه الورقة، نقترح نظام رواية لمعالجة هذه المشكلات. مستوحاة من السببية المتعددة، يحدد نظامنا من رجال الصمغ على مستوى الرمز في البيان مع تقدير البحار الذي يستند إلى التحقيق. يتيح تقدير Salience التعلم المعزز للتحقق من الحقائق من وجهات نظر. من منظور واحد، يقوم نظامنا بإجراء تنبؤ ممثن بالبرنامج المريح لتعزيز النموذج للمحاذاة والتفكير بين الطاولة والبيان. من المنظور الآخر، ينطبق نظامنا على توضيح تكبير البيانات الإدراك بالاستثناء لإنشاء مجموعة متنوعة من مثيلات التدريب عن طريق استبدال المصطلحات غير البارزة. تظهر النتائج التجريبية على Tabract التحسن الفعال من خلال تقنيات التعلم التي أدركها Carience المقترحة، مما يؤدي إلى أداء Sota الجديد على المعيار.
QuestEval هو مقياس مرجع أقل استخداما في مهام النص إلى النص، مما يقارن الملخصات التي تم إنشاؤها مباشرة إلى النص المصدر، من خلال طرح الأسئلة والرد عليها تلقائيا.إن التكيف مع مهام البيانات إلى النص ليس واضحا، لأنه يتطلب جيل سؤال متعدد الوسائط وأنظمة الر د على المهام المدروسة، والتي نادرا ما تكون متاحة.لهذا الغرض، نقترح طريقة لبناء كورسيا متعددة الوسائط الاصطناعية تمكين لتدريب مكونات متعددة الوسائط لمكيانية بيانات Questeval.المقياس الناتج هو المرجع أقل و multimodal؛يحصل على ارتباطات حديثة مع حكم بشري على معايير Webnlg ويكيبيو.نجعل رمز ونماذج بيانات Questeval للبيانات المتاحة لغرض الاستيلاء، كجزء من مشروع Questeval.
مقاييس التقييم التلقائية المستندة إلى المرجعية محدودة بشكل ملحوظ ل NLG بسبب عدم قدرتها على التقاط مجموعة كاملة من النواتج المحتملة.نحن ندرس بديلا للإشارة: تقييم كفاية الرسوم البيانية من جمل اللغة الإنجليزية التي تم إنشاؤها من الرسوم البيانية التمثيل المعنى التجريدي (AMR) عن طريق التحليل في عمرو ومقارنة التحليل مباشرة إلى المدخلات.نجد أن الأخطاء التي أدخلتها تحليل عمرو التلقائي تقيص بشكل كبير من فعالية هذا النهج، ولكن دراسة تحرير يدوية تشير إلى أنه نظرا لأن التحليل يحسن، فإن التقييم القائم على التحلل يحتوي على إمكانية تفوق معظم المقاييس المرجعية.
تلقت مهمة التحقق من صحة المطالبات في الوثائق النصية، أو فحص الحقائق، اهتماما كبيرا في السنوات الأخيرة. تحتوي العديد من مجموعات بيانات الحقائق القائمة على الأدلة الموجودة على المطالبات الاصطناعية والنماذج المدربة على هذه البيانات قد لا تتمكن من التحقق من مطالبات العالم الحقيقي. وعليا بعض الدراسات التي تعالجت التحقق من الحقائق القائمة على الأدلة للمطالبات المتعلقة بالصحة التي تتطلب الخبرات الطبية أو الأدلة من الأدبيات العلمية. في هذه الورقة، نقدم صحة، مجموعة بيانات جديدة لفحص الحقائق القائم على الأدلة للمطالبات المتعلقة بالصحة التي تسمح بدراسة صلاحية المطالبات في العالم الحقيقي من خلال تقييم صدقها ضد المقالات العلمية. باستخدام طريقة إنشاء بيانات ثلاث خطوات، استجبت لأول مرة مطالبات عالمية حقيقية من المقتطفات التي تم إرجاعها بواسطة محرك بحث للأسئلة حول CovID-19. ثم استرجاعنا تلقائيا وإعادة صياغة الأوراق العلمية ذات الصلة باستخدام نموذج T5 القائم على الصلة. وأخيرا، تم تفاح العلاقات بين كل بيان أدلة والمطالبة المرتبطة يدويا كدعم ودحض ومحايد. للتحقق من صحة مجموعة البيانات التي تم إنشاؤها من 14،330 أزواج مطالبة الأدلة، طورت نماذج خط الأساس بناء على نماذج اللغة المحددة مسبقا. أظهرت تجاربنا أن التدريبات التدريبية العميقة في المطالبات الطبية في العالم الحقيقي تعمل بشكل كبير على تحسين الأداء مقارنة بالنماذج المدربة على مطالبات الاصطناعية والمفتوحة. تشير النتائج الخاصة بنا والتحليلات اليدوية إلى أن صحية يوفر مجموعة بيانات واقعية وصعبة للجهود المستقبلية بشأن التحقق من الحقائق القائمة على الأدلة للمطالبات المتعلقة بالصحة. تتوفر DataSet، التعليمات البرمجية المصدر، لوحة المتصدرين في https://github.com/sarrouti/healthver.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا