تم استخدام مطالبات اللغة الطبيعية مؤخرا لتخصيص نماذج اللغة في أداء مهام منظمة العفو الدولية الأخرى، باستخدام نموذج تعبئة داخل الفراغ (Petroni et al.، 2019) أو نموذج استقراء قليل بالرصاص (براون وآخرون، 2020). على سبيل المثال، تحتفظ نماذج اللغة بالمعرفة الواقعية من كورسا التدريب التي يمكن استخراجها من خلال مطالبتها بملء الفراغ "في موجه أساسية. ومع ذلك، أين يأتي هذا المطالبة؟ نستكشف فكرة مطالبات التعلم عن طريق نزول التدرج --- إما مطالبات ضبط دقيقة مأخوذة من العمل السابق، أو بدءا من تهيئة عشوائية. تتكون مطالباتنا من كلمات ناعمة، '' I.E.، ناقلات مستمرة ليست بالضرورة تضمين نوع الكلمات من نموذج اللغة. علاوة على ذلك، لكل مهمة، فإننا نحسن مزيجا من المطالبات، والتعلم الذي يطالب الأكثر فعالية وكيفية الفرقة لهم. عبر العديد من LMS والمهام الإنجليزية المتعددة، يتفوق نهجنا بشكل كبير على الأساليب السابقة، مما يظهر أن المعرفة الواقعية الضمنية في نماذج اللغة قد تم التقليل من السابق. علاوة على ذلك، فإن هذه المعرفة رخيصة للاستيلاء: تهيئة عشوائية جيدة مثل التهيئة المستنيرة.
Natural-language prompts have recently been used to coax pretrained language models into performing other AI tasks, using a fill-in-the-blank paradigm (Petroni et al., 2019) or a few-shot extrapolation paradigm (Brown et al., 2020). For example, language models retain factual knowledge from their training corpora that can be extracted by asking them to fill in the blank'' in a sentential prompt. However, where does this prompt come from? We explore the idea of learning prompts by gradient descent---either fine-tuning prompts taken from previous work, or starting from random initialization. Our prompts consist of soft words,'' i.e., continuous vectors that are not necessarily word type embeddings from the language model. Furthermore, for each task, we optimize a mixture of prompts, learning which prompts are most effective and how to ensemble them. Across multiple English LMs and tasks, our approach hugely outperforms previous methods, showing that the implicit factual knowledge in language models was previously underestimated. Moreover, this knowledge is cheap to elicit: random initialization is nearly as good as informed initialization.
المراجع المستخدمة
https://aclanthology.org/
نقدم نهجا للتعلم اكتشاف سقالة لإدخال مفاهيم في دورة معالجة اللغة الطبيعية تهدف إلى طلاب علوم الكمبيوتر في مؤسسات الفنون الليبرالية.نحن نصف بعض أهداف هذا النهج، بالإضافة إلى تقديم طرق محددة أن أربعة من المهام التي تعتمد على اكتشافها تجمع بين مفاهيم مع
القيلات السحائية النخاعية آفة كثيرة الشيوع ببلادنا، و للأسف معظم الإصابات بها تنتهي بإعاقة و عاهة دائمة، و قسم كبير من هؤلاء الأطفال نفقدهم بالتهاب سحايا عقابيل تلك القيلات. و هنا نطرح التساؤل: لِم هذه
الآفات شائعة ببلادنا في حين أصبحت شبه نادرة بال
مجردة، نقدم محول تحرير يعتمد على إعادة تحديد موضع (محرر)، مما يجعل توليد التسلسل مرنا بسلاسة يسمح للمستخدمين بسلاسة لتحديد التفضيلات في الاختيار المعجمي الإخراج.بناء على النماذج الأخيرة لتوليد التسلسل غير التلقائي (GU al.، 2019)، يولد المحرر تسلسلات
مهمة مهمة في تطبيقات NLP مثل تبسيط الجملة هي القدرة على اتخاذ جملة طويلة ومعقدة وتقسيمها إلى جمل أقصر، وإعادة صياغة حسب الضرورة. نقدم مجموعة بيانات جديدة ونموذج جديد لهذه المهمة الانقسام وإعادة صياغة. تتكون بياناتنا في Bisect التدريبية من 1 مليون جمل
في حين أن النماذج اللغوية المدربة مسبقا (PLMS) هي محلول الذهاب لمعالجة العديد من مشاكل معالجة اللغة الطبيعية، فإنها لا تزال محدودة للغاية في قدرتها على التقاط ومعرفة المعيشية المشتركة. في الواقع، حتى إذا كانت المعلومات متوفرة في شكل قواعد منطقية تقري