على الرغم من الأداء الممتاز في مهام مثل الإجابة على الأسئلة، تظل الهيغات القائمة على المحولات حساسة للمغوصات النحوية والسياقية. توفر إعادة صياغة الأسئلة (QP) حلا واعدا كوسيلة لزيادة مجموعات البيانات الحالية. تتضمن التحديات الرئيسية لنماذج QP الحالية عدم وجود بيانات تدريبية وصعوبة في توليد أسئلة متنوعة وطبيعية. في هذه الورقة، نقدم الفتح، إطارا لتوليد مجموعات البيانات الاصطناعية للحصول على إعادة صياغة الأسئلة السياقية. تحقيقا لهذه الغاية، توظف الفتح أولا نموذج جيل سؤال للإجابة (QG) لإنشاء مجموعة بيانات سؤال-زوج ثم يستخدم هذه البيانات لتدريب نموذج إعادة صياغة الأسئلة السياقية. نقوم بتقييم الفتح على نطاق واسع وإظهار قدرتها على إنتاج أزواج أسئلة متنوعة وطلاقة أكثر من الأساليب الحالية. ينشئ نموذج إعادة الصياغة السياقية لدينا أيضا خط أساس قوي للحصول على إعادة صياغة سياقية نهاية إلى نهاية. علاوة على ذلك، نجد أن السياق يمكن أن يحسن النتيجة BLEU-1 على الضغط السياقي والتوسع بنسبة 4.3 و 11.2 على التوالي، مقارنة بنموذج غير سياقي.
Despite excellent performance on tasks such as question answering, Transformer-based architectures remain sensitive to syntactic and contextual ambiguities. Question Paraphrasing (QP) offers a promising solution as a means to augment existing datasets. The main challenges of current QP models include lack of training data and difficulty in generating diverse and natural questions. In this paper, we present Conquest, a framework for generating synthetic datasets for contextual question paraphrasing. To this end, Conquest first employs an answer-aware question generation (QG) model to create a question-pair dataset and then uses this data to train a contextualized question paraphrasing model. We extensively evaluate Conquest and show its ability to produce more diverse and fluent question pairs than existing approaches. Our contextual paraphrase model also establishes a strong baseline for end-to-end contextual paraphrasing. Further, We find that context can improve BLEU-1 score on contextual compression and expansion by 4.3 and 11.2 respectively, compared to a non-contextual model.
References used
https://aclanthology.org/
Although showing promising values to downstream applications, generating question and answer together is under-explored. In this paper, we introduce a novel task that targets question-answer pair generation from visual images. It requires not only ge
Amidst rising mental health needs in society, virtual agents are increasingly deployed in counselling. In order to give pertinent advice, counsellors must first gain an understanding of the issues at hand by eliciting sharing from the counsellee. It
Question answering (QA) models for reading comprehension have been demonstrated to exploit unintended dataset biases such as question--context lexical overlap. This hinders QA models from generalizing to under-represented samples such as questions wi
Open-domain question answering aims at locating the answers to user-generated questions in massive collections of documents. Retriever-readers and knowledge graph approaches are two big families of solutions to this task. A retriever-reader first app
Coupled with the availability of large scale datasets, deep learning architectures have enabled rapid progress on the Question Answering task. However, most of those datasets are in English, and the performances of state-of-the-art multilingual model