ترغب بنشر مسار تعليمي؟ اضغط هنا

Kilt: معيار لمهام لغة مكثفة المعرفة

KILT: a Benchmark for Knowledge Intensive Language Tasks

239   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

مشاكل صعبة مثل استجابة الأسئلة المفتوحة للنطاق الرد، وفحص الحقائق، وربط فتحة وملء الكيان تتطلب الوصول إلى مصادر المعرفة الكبيرة والخارجية. في حين أن بعض النماذج تعمل بشكل جيد على المهام الفردية، فإن النماذج العامة النامية صعبة لأن كل مهمة قد تتطلب فهرسة باهظة الثمن على حساب مصادر المعرفة المخصصة، بالإضافة إلى البنية التحتية المخصصة. لتحفيز البحث على النماذج التي تشرح معلومات محددة في موارد نصية كبيرة، نقدم معيارا للمهام اللغوية المكثفة المعرفة (KILT). ترتكز جميع المهام في Kilt في نفس لقطة Wikipedia، مما يقلل من تحول الهندسة من خلال إعادة استخدام المكونات، بالإضافة إلى تسريع البحوث في هياكل الذاكرة المرجعية المهمة. نحن نختبر كل من خطوط الأساس الخاصة ومجموعة العمل، وتقييم أداء المصب بالإضافة إلى قدرة النماذج على توفير الأصل. نجد أن مؤشر ناقلات كثيف مشترك مقترن بنموذج SEQ2SEQ هو خط أساس قوي، مما يتفوق على المزيد من الأساليب المصنوعة من الخياطة لفحص الحقائق، والإجابة على سؤال المجال المفتوح والحوار، وإنشاء نتائج تنافسية على ربط الكيان وملء الفتحة، عن طريق توليد disambigguated نص. تتوفر بيانات وكود Kilt في https://github.com/facebookresearch/kilt.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

توضح طبيعة عدم وجود كلمة أو انعكاس كلمة يمكن أن تشير إلى حدود القطاع أو دلالات الكلمة من صعوبة فهم النص الصيني، كما تكثف الطلب على المعرفة الدلالية على مستوى الكلمات لإنجاز هدف وضع العلامات في مهام التجزئة والصينية. ومع ذلك، بالنسبة لمهام تجزئة المجا ل الصيني والعلامات الصينية غير الخاضعة للرقابة، يعاني النموذج المدرب على المجال المصدر بشكل متكرر من المعرفة الدلالية ذات مستوى الكلمة الناقص بالمجال المستهدف. لمعالجة هذه المشكلة، نقترح نموذجا جديدا يعتمد على تكبير الانتباه لإدخال معرفة كبيرة عبر المجال عبر نظام الترجمة. تتيح النموذج المقترح الانتباه النموذجي إلى رسم المعرفة عبر المجال المشار إليها بواسطة المحاذاة المتبادلة على مستوى الكلمات الضمنية بين المدخلات والترجمة المقابلة لها. بصرف النظر عن النموذج الذي يتطلب الإدخال عبر اللغات، فإننا نؤسس أيضا نموذجا خارج الرف الذي يهرب من الاعتماد على الترجمات عبر اللغات. توضح التجارب أن اقتراحنا يتقدم بدرجة كبيرة نتائج أحدث النتائج من مجزأة الصينية المجال ومهام وضع العلامات.
يعد الكشف عن الموقف على Twitter تحديا بشكل خاص بسبب الطول القصير لكل سقسقة، والتعايش المستمر لمصطلحات جديدة وعلاج التصنيف، وانحراف هيكل الجملة من النثر القياسي.تم عرض نماذج لغة ذات ضبطها باستخدام بيانات داخل المجال على نطاق واسع لتكون الحالة الجديدة للعديد من مهام NLP، بما في ذلك اكتشاف الموقف.في هذه الورقة، نقترح طريقة رواية متناصة قائمة بذاتها تعزز نموذج اللغة الملثم للكشف عن الموقف.بدلا من إخفاء الرمز المميز العشوائي، نقترح استخدام نسبة مرجحة للأحكام المرجحة لتحديد الكلمات ذات الموقف العالي ومن ثم نموذج آلية الاهتمام التي تركز على هذه الكلمات.نظهر أن نهجنا المقترح يتفوق على حالة الفنية من أجل الكشف عن البيانات حول بيانات تويتر حول الانتخابات الرئاسية الأمريكية 2020.
الملخص نقدم إطارا نظري لفهم وتوقع تعقيد مهام تصنيف التسلسل، باستخدام تمديد جديد لنظرية حساسية وظيفة المنطقية. حساسية الوظيفة، نظرا للتوزيع على تسلسل الإدخال، يحدد عدد الفك القصير من تسلسل الإدخال الذي يمكن تغيير كل منهما بشكل فردي لتغيير الإخراج. نقو ل أن أساليب تصنيف التسلسل القياسية متحيزة نحو تعلم وظائف الحساسية المنخفضة، بحيث تكون المهام التي تتطلب حساسية عالية أكثر صعوبة. تحقيقا لهذه الغاية، نظهر تحليليا أن المصنفات المعجمية البسيطة يمكن أن تعبر فقط عن وظائف الحساسية المحددة، ونظرا تجريبيا أن وظائف الحساسية المنخفضة هي أسهل للتعلم من أجل LSTMS. ثم نقدر الحساسية في 15 مهام NLP، ويجد أن الحساسية أعلى على المهام الصعبة التي تم جمعها في الغراء أكثر من مهام تصنيف النص البسيطة، وأن الحساسية تتنبأ بأداء كل من المصنفات المعجمية البسيطة والفانيليا BILSTMS دون إشارة إلى تضمينات محاط بأذى. في غضون مهمة، تتوقع الحساسية المدخلات من الصعب على هذه النماذج البسيطة. تشير نتائجنا إلى أن نجاح التمثيلات السياقية المسبقة بشكل كبير ينبع جزئيا لأنهم يقدمون تمثيلات يمكن استخراج المعلومات من خلال فك رموز حساسية منخفضة الحساسية.
نقدم السيد Tydi، وهي مجموعة بيانات مرجعية متعددة اللغات لاسترجاع أحادي اللغات في أحد عشر لغة متنوعة من الناحية النموذجية، مصممة لتقييم الترتيب مع التمثيلات الكثيفة المستفادة.الهدف من هذا المورد هو أن يحفز البحث في تقنيات استرجاع كثيفة باللغات غير الإ نجليزية، بدافع من الملاحظات الحديثة أن التقنيات الحالية لتعلم التمثيل تؤدي سيئة عند تطبيقها على بيانات خارج التوزيع.كنقطة انطلاق، نحن نقدم خطوط خطوط خطوط البيانات الخاصة بهذه البيانات الجديدة القائمة على التكيف متعدد اللغات من DPR التي نسميها MDPR ".تبين التجارب أنه على الرغم من أن فعالية MDPR أقل بكثير من BM25، إلا أن تمثيلات كثيفة يبدو أنها توفر إشارات ذات أهمية قيمة، وتحسين نتائج BM25 في Sparse - الهجينة الكثيفة.بالإضافة إلى تحليلات نتائجنا، نناقش أيضا التحديات المستقبلية وتقديم جدول أعمال بحث في استرجاع كثيف متعدد اللغات.يمكن تنزيل السيد Tydi في https://github.com/castorini/mr.tydi.
نما خطاب الكراهية بشكل كبير على وسائل التواصل الاجتماعي، مما تسبب في عواقب وخيمة على ضحايا جميع التركيبة السكانية.على الرغم من الاهتمام بالكثير من الاهتمام لتوصيف واكتشاف الكلام التمييزي، ركز معظم الأعمال على خطاب الكراهية الصريح أو الصريح، وفشل في م عالجة شكل أكثر انتشارا يستند إلى لغة مشفرة أو غير مباشرة.لملء هذه الفجوة، يقدم هذا العمل تصنيفا مبررا من الناحية النظرية لخطاب الكراهية الضمنية والجورتين القياسي مع ملصقات جيدة المحبوب لكل رسالة وتضليلها.نقدم تحليلات منهجية لمجموعة البيانات الخاصة بنا باستخدام خطوط الأساس المعاصرة للكشف عن خطاب الكراهية الضمني، ونناقش الميزات الرئيسية التي تحدي النماذج الحالية.ستستمر هذه البيانات في العمل بمثابة معيار مفيد لفهم هذه المشكلة متعددة الأوجه.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا