أظهرت الدراسات الحديثة أن مطالبات تحسين أداء نماذج اللغة الكبيرة المدربة مسبقا مسبقا لتصنيف نص قليل بالرصاص. ومع ذلك، فمن غير الواضح كيف يمكن نقل المعرفة المطالبة عبر مهام NLP مماثلة لغرض التعزيز المتبادل. بناء على embeddings الفوري المستمر، نقترح Tr
ansprompt، إطار مطالب قابل للتحويل لتعلم قليل من الطلقات عبر مهام مماثلة. في Transprompt، نحن نوظف إجراءات اقتناء المعرفة متعددة المهام لتدريب المتعرية التي تلتقط المعرفة القابلة للتحويل المهمة. تم تصميم متزحاب تقنيات التغذيتين لجعلها أكثر ملاءمة وغير مرغوبة وغير متحيزة تجاه أي مهام. بعد ذلك، يمكن تكييف المتعلم التعريف مع المهام المستهدفة بدقة عالية. تبين تجارب واسعة أن Transprompt تفوقت على المهمة المفردة والاستصراد القوي عبر المهام عبر مهام NLP متعددة ومجموعات البيانات. نؤدي كذلك إلى أن المتعلم التلوي يمكن أن يحسن بشكل فعال الأداء على المهام غير المرئية مسبقا؛ وتتفوق TransPrompt أيضا على خطوط خطوط خطوط خطوط وطنية قوية عند التعلم مع مجموعات تدريب كاملة.
عند ضبط النماذج المحددة مسبقا للتصنيف، يستخدم الباحثون إما رأس نموذج عام أو موجه خاص بالتنبؤ.جادل مؤيدو المطالبات بأن المطالبات توفر طريقة لحقن إرشادات خاصة بالمهام، وهي مفيدة في أنظمة البيانات المنخفضة.نهدف إلى تقدير هذه الفائدة من خلال اختبار صارم
للمطالبات في إعداد عادل: مقارنة بالضبط الدقيق المطالب والرأس في ظروف متساوية في العديد من المهام وأحجام البيانات.من خلال السيطرة على العديد من مصادر ميزة، نجد أن المطالبة تقدم بالفعل فائدة، وأن هذه الفائدة يمكن تحديدها لكل مهمة.تظهر النتائج أن المطالبة غالبا ما تستحق 100 ثانية من نقاط البيانات في المتوسط عبر مهام التصنيف.