النماذج اللغوية الكبيرة "المضبوطة للتعليمات" (التي تم ضبطها للاستجابة للتعليمات) قد أظهرت قدرة ملحوظة على التعميم بدون أي تدريب في مهام جديدة. ومع ذلك، فإنها تعتمد بشدة على بيانات التعليمات المكتوبة بواسطة الإنسان والتي تكون محدودة في الكمية والتنوع والإبداع، مما يعيق عملية التعميم للنموذج المضبوط. نقدم "Self-Instruct"، وهو إطار عمل لتحسين قدرات اتباع التعليمات لنماذج اللغة المدربة مسبقًا عن طريق الاستفادة من توليداتها الخاصة. يقوم خط أنابيبنا بتوليد عينات من التعليمات والإدخال والإخراج من نموذج اللغة، ثم يقوم بتقليصها قبل استخدامها لضبط النموذج الأصلي. باستخدام طريقتنا على GPT3 الأساسية، نظهر تحسينًا مطلقًا بنسبة 33٪ على نموذج Super-NaturalInstructions الأصلي، وهو متوافق مع أداء InstructGPT_001، والذي يتم تدريبه باستخدام بيانات مستخدم خاصة وتعليمات بشرية. لتقييم أعمق، نحن نضع مجموعة من التعليمات المكتوبة من قبل خبراء للمهام الجديدة، ونظهر من خلال التقييم البشري أن ضبط GPT3 باستخدام Self-Instruct يفوق استخدام مجموعات بيانات التعليمات العامة الموجودة حاليًا بفارق كبير، ولا يترك سوى فجوة بنسبة 5٪ خلف InstructGPT_001. يوفر Self-Instruct طريقة تقريبًا خالية من التعليقات لمزامنة نماذج اللغة المدربة مسبقًا مع التعليمات، ونحن نطلق مجموعة بيانات اصطناعية كبيرة لتسهيل الدراسات المستقبلية حول ضبط التعليمات.
Large "instruction-tuned" language models (finetuned to respond to instructions) have demonstrated a remarkable ability to generalize zero-shot to new tasks. Nevertheless, they depend heavily on human-written instruction data that is limited in quantity, diversity, and creativity, therefore hindering the generality of the tuned model. We introduce Self-Instruct, a framework for improving the instruction-following capabilities of pretrained language models by bootstrapping off its own generations. Our pipeline generates instruction, input, and output samples from a language model, then prunes them before using them to finetune the original model. Applying our method to vanilla GPT3, we demonstrate a 33% absolute improvement over the original model on Super-NaturalInstructions, on par with the performance of InstructGPT_001, which is trained with private user data and human annotations. For further evaluation, we curate a set of expert-written instructions for novel tasks, and show through human evaluation that tuning GPT3 with Self-Instruct outperforms using existing public instruction datasets by a large margin, leaving only a 5% absolute gap behind InstructGPT_001. Self-Instruct provides an almost annotation-free method for aligning pre-trained language models with instructions, and we release our large synthetic dataset to facilitate future studies on instruction tuning.
Artificial intelligence review:
Research summary
تقدم الورقة البحثية إطار عمل يسمى SELF-INSTRUCT لتحسين قدرات النماذج اللغوية المدربة مسبقًا على اتباع التعليمات من خلال استخدام إشارات تعليمية يتم توليدها ذاتيًا. يتضمن الإطار عملية تكرارية تبدأ بمجموعة صغيرة من التعليمات المكتوبة يدويًا، ثم يتم استخدام النموذج اللغوي لتوليد تعليمات جديدة ومثيلات مدخلات ومخرجات لها. يتم تنقية هذه التعليمات والمثيلات قبل استخدامها لتدريب النموذج الأصلي. تُظهر النتائج أن النموذج المدرب باستخدام SELF-INSTRUCT يتفوق بشكل كبير على النموذج الأصلي ويقترب من أداء النماذج المدربة باستخدام بيانات تعليمات مكتوبة يدويًا ومكلفة. يتميز الإطار بقدرته على توليد مجموعة كبيرة ومتنوعة من التعليمات مع تقليل الاعتماد على البيانات المكتوبة يدويًا، مما يجعله طريقة فعالة لتحسين نماذج اللغة المدربة مسبقًا على اتباع التعليمات.
Critical review
تُعد ورقة SELF-INSTRUCT إضافة قيمة لمجال معالجة اللغة الطبيعية، حيث تقدم طريقة مبتكرة لتحسين أداء النماذج اللغوية في اتباع التعليمات. ومع ذلك، هناك بعض النقاط التي يمكن تحسينها. أولاً، تعتمد الطريقة بشكل كبير على جودة النموذج اللغوي المستخدم في البداية، مما قد يحد من فعالية الإطار في حالة استخدام نماذج أقل كفاءة. ثانيًا، قد تواجه الطريقة تحديات في التعامل مع التعليمات غير الشائعة أو الإبداعية التي قد لا تكون ممثلة بشكل جيد في بيانات التدريب الأصلية. أخيرًا، هناك حاجة لمزيد من الدراسات لفهم تأثير حجم النموذج والمعلمات الأخرى على أداء الإطار. على الرغم من هذه التحديات، تُعد SELF-INSTRUCT خطوة مهمة نحو تحسين نماذج اللغة المدربة مسبقًا على اتباع التعليمات بطرق أكثر فعالية وأقل تكلفة.
Questions related to the research
-
ما هو الهدف الرئيسي من إطار SELF-INSTRUCT؟
الهدف الرئيسي من إطار SELF-INSTRUCT هو تحسين قدرات النماذج اللغوية المدربة مسبقًا على اتباع التعليمات من خلال استخدام إشارات تعليمية يتم توليدها ذاتيًا وتقليل الاعتماد على البيانات المكتوبة يدويًا.
-
كيف يتم توليد التعليمات الجديدة في إطار SELF-INSTRUCT؟
يتم توليد التعليمات الجديدة في إطار SELF-INSTRUCT من خلال نموذج لغوي يتم تحفيزه باستخدام مجموعة صغيرة من التعليمات المكتوبة يدويًا، ثم يتم تنقية التعليمات والمثيلات الناتجة قبل استخدامها لتدريب النموذج الأصلي.
-
ما هي الفوائد الرئيسية لاستخدام SELF-INSTRUCT مقارنة بالطرق التقليدية؟
الفوائد الرئيسية لاستخدام SELF-INSTRUCT تشمل تحسين أداء النماذج اللغوية في اتباع التعليمات، تقليل الاعتماد على البيانات المكتوبة يدويًا والمكلفة، وتوفير طريقة فعالة لتوليد مجموعة كبيرة ومتنوعة من التعليمات.
-
ما هي التحديات المحتملة التي قد تواجه إطار SELF-INSTRUCT؟
التحديات المحتملة تشمل الاعتماد على جودة النموذج اللغوي المستخدم في البداية، صعوبة التعامل مع التعليمات غير الشائعة أو الإبداعية، والحاجة لمزيد من الدراسات لفهم تأثير حجم النموذج والمعلمات الأخرى على أداء الإطار.
For any E-commerce website it is a nontrivial problem to build enduring advertisements that attract shoppers. It is hard to pass the creative quality bar of the website, especially at a large scale. We thus propose a programmatic solution to generate
The use of attention mechanisms in deep learning approaches has become popular in natural language processing due to its outstanding performance. The use of these mechanisms allows one managing the importance of the elements of a sequence in accordan
Current study entitled: domestic violence and its relationship to self-esteem
among students in higher education, University of Khartoum. As noted researcher through social work as a guide for this category, estimated by a researcher greater than 14
Fine-tuned pre-trained language models (LMs) have achieved enormous success in many natural language processing (NLP) tasks, but they still require excessive labeled data in the fine-tuning stage. We study the problem of fine-tuning pre-trained LMs u
Providing pretrained language models with simple task descriptions in natural language enables them to solve some tasks in a fully unsupervised fashion. Moreover, when combined with regular learning from examples, this idea yields impressive few-shot