قراء قراء أوراق البحث الأكاديمي غالبا ما يقرؤون بهدف الإجابة على أسئلة محددة. يمكن للإجابة على الأسئلة التي يمكن أن ترد على هذه الأسئلة إجراء استهلاك المحتوى أكثر كفاءة بكثير. ومع ذلك، فإن بناء هذه الأدوات يتطلب بيانات تعكس صعوبة المهمة الناشئة عن التفكير المعقد حول المطالبات المقدمة في أجزاء متعددة من الورقة. في المقابل، تحتوي الأسئلة الحالية على المعلومات المتعلقة بالمعلومات الرد على مجموعات البيانات عادة أسئلة حول المعلومات العامة من النوع العامل. لذلك نحن نقدم QASPER، مجموعة بيانات من 5049 سؤالا أكثر من 1585 ورقة معالجة اللغة الطبيعية. يتم كتابة كل سؤال بممارس NLP الذي قرأ فقط عنوان وإجراء ملخص للورقة المقابلة، والسؤال يسعى للحصول على معلومات موجودة في النص الكامل. ثم تتم الإجابة على الأسئلة من قبل مجموعة منفصلة من ممارسين NLP الذين يقدمون أيضا الأدلة الداعمة للإجابات. نجد أن النماذج الحالية التي تعمل بشكل جيد على مهام ضمان الجودة الأخرى لا تؤدي بشكل جيد في الإجابة على هذه الأسئلة، وأيضا الأد من البشر بنسبة 27 نقطة على الأقل عند الإجابة عليها من الأوراق بأكملها، تحفز المزيد من الأبحاث في الوثائق التي تأسست، حيث تسعى للحصول على المعلومات، والتي تم تصميم DataSet لدينا لتسهيل.
Readers of academic research papers often read with the goal of answering specific questions. Question Answering systems that can answer those questions can make consumption of the content much more efficient. However, building such tools requires data that reflect the difficulty of the task arising from complex reasoning about claims made in multiple parts of a paper. In contrast, existing information-seeking question answering datasets usually contain questions about generic factoid-type information. We therefore present Qasper, a dataset of 5049 questions over 1585 Natural Language Processing papers. Each question is written by an NLP practitioner who read only the title and abstract of the corresponding paper, and the question seeks information present in the full text. The questions are then answered by a separate set of NLP practitioners who also provide supporting evidence to answers. We find that existing models that do well on other QA tasks do not perform well on answering these questions, underperforming humans by at least 27 F1 points when answering them from entire papers, motivating further research in document-grounded, information-seeking QA, which our dataset is designed to facilitate.
المراجع المستخدمة
https://aclanthology.org/
تعد المعلومات التي تطلبها خطوة أساسية للسؤال المفتوح الإجابة على جمع الأدلة الكفاءة من كوربوس كبيرة. في الآونة الأخيرة، أثبتت النهج التكرارية أن تكون فعالة للأسئلة المعقدة، من خلال استرداد أدلة جديدة بشكل متكرر في كل خطوة. ومع ذلك، فإن جميع الأساليب
في هذه الورقة، نحدد وتقييم منهجية لاستخراج الأسئلة المكانية التي تعتمد على التاريخ من الحوارات البصرية.نقول أن السؤال يعتمد على التاريخ إذا كان يتطلب (أجزاء) تاريخ حواره المراد تفسيره.نقول أن بعض أنواع الأسئلة المرئية تحدد السياق الذي يعتمد عليه سؤال
يستخدم الأشخاص من المنتديات عبر الإنترنت إما أن نبحث عن معلومات أو للمساهمة به. بسبب شعبيتها المتنامية، تم إنشاء بعض المنتديات عبر الإنترنت خصيصا لتوفير الدعم والمساعدة والآراء للأشخاص الذين يعانون من مرض عقلي. الاكتئاب هو واحد من الأمراض النفسية الأ
تركز أساليب استخراج العلاقة الحالية (إعادة) عادة على استخراج الحقائق العلائقية بين أزواج الكيان داخل جمل أو مستندات واحدة.ومع ذلك، لا يمكن استنتاج كمية كبيرة من الحقائق العلائقية في قواعد المعرفة إلا في جميع الوثائق في الممارسة.في هذا العمل، نقدم مشك
نقوم بتقديم Gerdalir، مجموعة بيانات ألمانية لاسترجاع المعلومات القانونية بناء على وثائق الحالة من منصة المعلومات القانونية المفتوحة المفتوحة.تتكون DataSet من استفسارات 123 ألفا، يتم تصنيف كل منها وثيقة واحدة ذات صلة على الأقل في مجموعة من وثائق الحال