أصبحت الشبكات العصبية العميقة ونماذج اللغة الضخمة في كل شيء في تطبيقات اللغة الطبيعية. نظرا لأنهم معروفون بطلب كميات كبيرة من بيانات التدريب، فهناك مجموعة متنامية من العمل لتحسين الأداء في إعدادات الموارد المنخفضة. بدافع من التغييرات الأساسية الأخيرة نحو النماذج العصبية والطائرة المسبقة والتدريب الشائعة النغمات الجميلة، نقوم بمسح نهج واعدة لمعالجة اللغات الطبيعية المنخفضة الموارد. بعد مناقشة حول الأبعاد المختلفة لتوفر البيانات، نقدم نظرة عامة منظم على الطرق التي تمكن التعلم عند انتشار البيانات التدريبية. يشتمل ذلك على آليات لإنشاء بيانات إضافية مصممة مثل تكبير البيانات والإشراف البعيد بالإضافة إلى إعدادات التعلم التي تقلل من الحاجة إلى الإشراف المستهدف. الهدف من المسح لدينا هو شرح كيف تختلف هذه الطرق في متطلباتهم كضمين لهم ضروري لاختيار تقنية مناسبة لإعداد محدد من الموارد منخفضة. هناك جوانب رئيسية أخرى لهذا العمل هي تسليط الضوء على القضايا المفتوحة وإطلاع الإرشادات الواعدة للبحث في المستقبل.
Deep neural networks and huge language models are becoming omnipresent in natural language applications. As they are known for requiring large amounts of training data, there is a growing body of work to improve the performance in low-resource settings. Motivated by the recent fundamental changes towards neural models and the popular pre-train and fine-tune paradigm, we survey promising approaches for low-resource natural language processing. After a discussion about the different dimensions of data availability, we give a structured overview of methods that enable learning when training data is sparse. This includes mechanisms to create additional labeled data like data augmentation and distant supervision as well as transfer learning settings that reduce the need for target supervision. A goal of our survey is to explain how these methods differ in their requirements as understanding them is essential for choosing a technique suited for a specific low-resource setting. Further key aspects of this work are to highlight open issues and to outline promising directions for future research.
المراجع المستخدمة
https://aclanthology.org/
يتم الاتفاق بشكل عام في مجتمع معالجة اللغة الطبيعية (NLP) على أنه ينبغي دمج الأخلاقيات في أي منهج.إدراك وفهم المفاهيم الأساسية ذات الصلة هو شرط أساسي فيما يتعلق بالمشاركة والمشاركة في الخطاب على NLP الأخلاقية.نقدم هنا مواد تعليمية جاهزة في شكل شرائح
تم إثبات التحسينات الأخيرة المثيرة للإعجاب في NLP، على أساس نجاح نماذج اللغة العصبية السياقية، في معظمها على معظم زوجين من اللغات عالية الموارد. بناء لغة البناء، وبشكل أعم، لا تزال أنظمة NLP للغات غير الموحدة والموارد منخفضة مهمة صعبة. في هذا العمل،
نظرا لقوتها العظيمة في النمذجة البيانات غير الإقليدية مثل الرسوم البيانية أو الفتحات، فقد فتحت التعلم العميق على تقنيات الرسم البياني (I.E.، Graph Newerations Nearials (GNNS)) باب جديد لحل مشاكل NLP ذات الصلة بالرسوم البيانية الصعبة. لقد شهدت زيادة ا
على الرغم من كفاءتها المثبتة في المجالات الأخرى، فإن تكبير البيانات أقل شعبية في سياق معالجة اللغة الطبيعية (NLP) بسبب تعقيدها ونتائج محدودة.أظهرت دراسة حديثة (Longpre et al.، 2020) على سبيل المثال أن تعزز بيانات المهمة غير المرغوية تفشل في تعزيز أدا
كيف يمكننا تصميم أنظمة معالجة اللغة الطبيعية (NLP) التي تتعلم من ردود الفعل البشرية؟هناك هيئة بحثية متزايدة من أطر NLP البشرية (HITL) التي تدمج بشكل مستمر ردود الفعل الإنسانية لتحسين النموذج نفسه.Hitl NLP Research NLP NATCENT ولكن MultiriSious - حل م