لإمكانية النمط الكامل لقدرة الإنسان التي تشبه الإنسان على طرح الأسئلة، يجب أن تكون نماذج توليد السؤال التلقائي (QG) قادرة على إنتاج تعبيرات متعددة من نفس السؤال مع مستويات مختلفة من التفاصيل. لسوء الحظ، لا تتضمن مجموعات البيانات الحالية المتاحة لتعلم QG إعادة الصياغة أو الاختلافات السؤال التي تؤثر على قدرة النموذج على تعلم هذه القدرة. نقدم التنوب، مجموعة بيانات تحتوي على إعادة كتابة من الحقائق التي تم إنشاؤها من قبل الإنسان من بيانات الفريق المستخدمة على نطاق واسع لمعالجة هذا القيد. تم الحصول على أسئلة في التنوب عن طريق الجمع بين سؤال معين مع حقائق من الكيانات المشار إليها في السؤال. نحن ندرس نموذج فك التشفير المزدوج ومولد السؤال المحدد لحقيقة (FIQG)، لتعلم إنشاء أسئلة غير ضيقة من الواقع من سؤال معين. تظهر النتائج التجريبية أن FIQG يشتمل بفعالية على معلومات من الحقائق لإضافة المزيد من التفاصيل لسؤال معين. إلى حد علمنا، لدينا هي الدراسة الأولى لتقديم ضخ الحقائق كأشكال جديدة من إعادة صياغة الأسئلة.
To fully model human-like ability to ask questions, automatic question generation (QG) models must be able to produce multiple expressions of the same question with different levels of detail. Unfortunately, existing datasets available for learning QG do not include paraphrases or question variations affecting a model's ability to learn this capability. We present FIRS, a dataset containing human-generated fact-infused rewrites of questions from the widely-used SQuAD dataset to address this limitation. Questions in FIRS were obtained by combining a given question with facts of entities referenced in the question. We study a double encoder-decoder model, Fact-Infused Question Generator (FIQG), for learning to generate fact-infused questions from a given question. Experimental results show that FIQG effectively incorporates information from facts to add more detail to a given question. To the best of our knowledge, ours is the first study to present fact-infusion as a novel form of question paraphrasing.
References used
https://aclanthology.org/
In question generation, the question produced has to be well-formed and meaningfully related to the answer serving as input. Neural generation methods have predominantly leveraged the distributional semantics of words as representations of meaning an
In education, quiz questions have become an important tool for assessing the knowledge of students. Yet, manually preparing such questions is a tedious task, and thus automatic question generation has been proposed as a possible alternative. So far,
Generating high quality question-answer pairs is a hard but meaningful task. Although previous works have achieved great results on answer-aware question generation, it is difficult to apply them into practical application in the education field. Thi
This paper describes the submission by the team from the Department of Computational Linguistics, Zurich University, to the Multilingual Grapheme-to-Phoneme Conversion (G2P) Task 1 of the SIGMORPHON 2021 challenge in the low and medium settings. The
Motivated by suggested question generation in conversational news recommendation systems, we propose a model for generating question-answer pairs (QA pairs) with self-contained, summary-centric questions and length-constrained, article-summarizing an