تم استخدام مطالبات اللغة الطبيعية مؤخرا لتخصيص نماذج اللغة في أداء مهام منظمة العفو الدولية الأخرى، باستخدام نموذج تعبئة داخل الفراغ (Petroni et al.، 2019) أو نموذج استقراء قليل بالرصاص (براون وآخرون، 2020). على سبيل المثال، تحتفظ نماذج اللغة بالمعرفة الواقعية من كورسا التدريب التي يمكن استخراجها من خلال مطالبتها بملء الفراغ "في موجه أساسية. ومع ذلك، أين يأتي هذا المطالبة؟ نستكشف فكرة مطالبات التعلم عن طريق نزول التدرج --- إما مطالبات ضبط دقيقة مأخوذة من العمل السابق، أو بدءا من تهيئة عشوائية. تتكون مطالباتنا من كلمات ناعمة، '' I.E.، ناقلات مستمرة ليست بالضرورة تضمين نوع الكلمات من نموذج اللغة. علاوة على ذلك، لكل مهمة، فإننا نحسن مزيجا من المطالبات، والتعلم الذي يطالب الأكثر فعالية وكيفية الفرقة لهم. عبر العديد من LMS والمهام الإنجليزية المتعددة، يتفوق نهجنا بشكل كبير على الأساليب السابقة، مما يظهر أن المعرفة الواقعية الضمنية في نماذج اللغة قد تم التقليل من السابق. علاوة على ذلك، فإن هذه المعرفة رخيصة للاستيلاء: تهيئة عشوائية جيدة مثل التهيئة المستنيرة.
Natural-language prompts have recently been used to coax pretrained language models into performing other AI tasks, using a fill-in-the-blank paradigm (Petroni et al., 2019) or a few-shot extrapolation paradigm (Brown et al., 2020). For example, language models retain factual knowledge from their training corpora that can be extracted by asking them to fill in the blank'' in a sentential prompt. However, where does this prompt come from? We explore the idea of learning prompts by gradient descent---either fine-tuning prompts taken from previous work, or starting from random initialization. Our prompts consist of soft words,'' i.e., continuous vectors that are not necessarily word type embeddings from the language model. Furthermore, for each task, we optimize a mixture of prompts, learning which prompts are most effective and how to ensemble them. Across multiple English LMs and tasks, our approach hugely outperforms previous methods, showing that the implicit factual knowledge in language models was previously underestimated. Moreover, this knowledge is cheap to elicit: random initialization is nearly as good as informed initialization.
References used
https://aclanthology.org/
We present a scaffolded discovery learning approach to introducing concepts in a Natural Language Processing course aimed at computer science students at liberal arts institutions. We describe some of the objectives of this approach, as well as prese
Myelomeningoceles are very common anamoly in our country. Mostly it ends
with permanent damage and handicap. Lot of these children die due to meningitis as a complication.
It still till now a large number of children with myelo meningoceles seek me
Abstract We introduce an Edit-Based TransfOrmer with Repositioning (EDITOR), which makes sequence generation flexible by seamlessly allowing users to specify preferences in output lexical choice. Building on recent models for non-autoregressive seque
An important task in NLP applications such as sentence simplification is the ability to take a long, complex sentence and split it into shorter sentences, rephrasing as necessary. We introduce a novel dataset and a new model for this split and rephra
While pre-trained language models (PLMs) are the go-to solution to tackle many natural language processing problems, they are still very limited in their ability to capture and to use common-sense knowledge. In fact, even if information is available