ترغب بنشر مسار تعليمي؟ اضغط هنا

التعلم مفهوم التركيب صفر

Zero-Shot Compositional Concept Learning

759   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

في هذه الورقة، ندرس مشكلة الاعتراف بمفاهيم كائن السمات التركيبية داخل إطار التعلم الصفرية (ZSL). نقترح شبكة اعتقالة على الحلقة (EPICA) التي تعتمد على الحلقة التي تجمع بين مزايا آلية الانتباه العابر واستراتيجية التدريب القائمة على الحلقة للتعرف على المفاهيم التركيبية الجديدة. أولا، قواعد ابيكا على الانتباه إلى ربط المعلومات المفاهيمية وتستخدم طبقة تجمع بوابات لبناء تمثيلات سياقية لكل من الصور والمفاهيم. يتم استخدام التمثيلات المحدثة لحساب ذات الصلة متعددة الوسائط أكثر فائدة للتعرف على المفهوم. ثانيا، يتم اعتماد استراتيجية تدريب الحلقة ذات الطورين، وخاصة المرحلة الرانسطة، للاستفادة من أمثلة الاختبار غير المسبقة لتخفيف مشكلة تعلم الموارد المنخفضة الموارد. أظهرت التجارب على معايير التعلم التركيبية المتفوقة (ZSCL) المتسعة (ZSCL) فعالية النموذج مقارنة بالنهج الحديثة على كل من إعدادات ZSCL التقليدية والعالمية.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

البشر قادرون على تعلم مفاهيم جديدة من أمثلة قليلة جدا؛ في المقابل، تحتاج خوارزميات التعلم في الآلة الحديثة عادة الآلاف من الأمثلة للقيام بذلك. في هذه الورقة، نقترح خوارزمية لتعلم مفاهيم جديدة من خلال تمثيلها كبرامج بشأن المفاهيم القائمة. وبهذه الطريق ة، تعتبر مشكلة التعلم المفهوم بشكل طبيعي مشكلة تخليق برنامجا وتخصصت خوارزميةنا من بعض الأمثلة لتوليف برنامج يمثل مفهوم الرواية. بالإضافة إلى ذلك، نقوم بإجراء تحليل نظري لنهجنا للقضية التي يكون فيها البرنامج الذي يحدد مفهوم الرواية على تلك الموجودة خالية من السياق. نظهر أنه بالنظر إلى المحلل المحلل القائم على النحو المستفاد وقاعدة الإنتاج الجديدة، يمكننا زيادة المحلل بمحلل مع قاعدة الإنتاج بطريقة تعميم. نقيم نهجنا من خلال مفاهيم التعلم في مجال التحليل الدلالي الممتد إلى إعداد تعلم مفهوم الرواية القليلة، مما يظهر أن نهجنا يتفوق بشكل كبير على المحللين الدلالي العصبي المنتهي.
يمكن للكشف عن الموقف على وسائل التواصل الاجتماعي المساعدة في تحديد وفهم الأخبار أو التعليق المائل في الحياة اليومية.في هذا العمل، نقترح نموذجا جديدا للكشف عن موقف صفرية على Twitter يستخدم التعلم الخصم للتعميم عبر الموضوعات.ينص نموذجنا على الأداء الحد يث في عدد من موضوعات الاختبار غير المرئية بأقل تكلفة حسابية.بالإضافة إلى ذلك، فإننا نقوم بإعادة اكتشاف موقف الرصاص في الصفر إلى المواضيع التي لم تعتبر سابقا، وتسليط الضوء على الاتجاهات المستقبلية للتحويل الصفر بالرصاص.
في هذه الورقة، نقترح نظام التحقق والتحقق من حقائق جديدة للتحقق من مطالبات محتوى ويكيبيديا.يسترد نظامنا صفحات ويكيبيديا ذات الصلة باستخدام Anserini، ويستخدم نموذج الإجابة على السؤال من Bert-Bert-bert-Berted لتحديد الأدلة الصحيحة، وتحقق من المطالبات با ستخدام نموذج الاستدلال باللغة الطبيعية XLNet بمقارنتها بالأدلة.يتم الحصول على أدلة خلية الجدول من خلال البحث عن قيم الخلايا المطابقة للكيان وسؤال الجدول Tapas نموذج الرد على نموذج.يستخدم خط الأنابيب إمكانيات الطلقة الصفرية للنماذج الحالية وجميع النماذج المستخدمة في خط الأنابيب لا يتطلب أي تدريب إضافي.حصل نظامنا على درجة حمامة من 0.06 ودقة ملصقة تبلغ 0.39 في التحدي الحمير.
مجردة معظم مجموعات مهام NLP والأصناف اللغوية تفتقر إلى أمثلة في المجال للتدريب الخاضع للإشراف بسبب قلة البيانات المشروحة. كيف يمكن النماذج العصبية أن تجعل تعميمات فعالة للعينة من مجموعات لغات المهام مع البيانات المتاحة للموارد المنخفضة؟ في هذا العمل، نقترح نموذجا إيلائيا بايزيا لمساحة المعلمات العصبية. نفترض أن هذه المساحة يمكن أن تعصبها في متغيرات كامنة لكل لغة وكل مهمة. نحن نستنتج المشتريات حول هذه المتغيرات الكامنة بناء على بيانات من مجموعات لغة المهام المشاهدة من خلال الاستدلال المتغيرات. وهذا يتيح تصنيف صفري بالرصاص على مجموعات غير مرئية في وقت التنبؤ. على سبيل المثال، نظرا لبيانات التدريب للتعرف على الكيان المسمى (NER) في الفيتنامية ولليزة جزء من الكلام (POS) (POS) في Wolof، يمكن أن يؤدي نموذجنا إلى إجراء تنبؤات دقيقة ل NER في Wolof. على وجه الخصوص، نقوم بتجربة عينة متنوعة من 33 لغة من 4 قارات و 11 أسرة، وإظهار أن نموذجنا ينتج عنه نتائج قابلة للمقارنة أو أفضل من أساليب التحويل المتبادلة الصفرية من بين الفن. يتوفر الكود الخاص بنا في github.com/cambridgeltl/parameter-factorization.
تصف هذه الورقة التقديم الخاص بنا إلى مهمة Semeval 2021 2. نحن نقارن قاعدة XLM-Roberta وكبير في إعدادات القليل من اللقطات والطلق الرصاص واختبار فعاليا فعالية استخدام مصنف جيران K-Enter في إعداد القليل من القصاصات بدلا منأكثر التقليدية متعددة الطبقات p erceptron.تظهر تجاربنا على كل من البيانات متعددة اللغات واللغة أن XLM-Roberta Large، على عكس الإصدار الأساسي، يمكن أن يكون قادرا على نقل التعلم بشكل أكثر فعالية في بيض بضع طلقة وأن مصنف الجيران K-Neave هو في الواقعمصنف أكثر قوة من بيرسيبترون متعدد الطبقات عند استخدامه في التعلم القليل من اللقطة.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا