ترغب بنشر مسار تعليمي؟ اضغط هنا

علم القواعد، وتوفير الحقائق: تعزيز المعرفة العلائقية المستهدفة للاستدلال النصي

Teach the Rules, Provide the Facts: Targeted Relational-knowledge Enhancement for Textual Inference

482   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

نقدم Inferbert، وهي طريقة لتعزيز نماذج الاستدلال القائمة على المحولات مع المعرفة العلائقية ذات الصلة. يسهل نهجنا تعلم أنماط الاستدلال العامة التي تتطلب معرفة علوية (على سبيل المثال الاستدلالات المتعلقة بفرط النعطح) أثناء التدريب، مع حقنها عند الطلب الحقائق العلائقية ذات الصلة (E.G. Pangolin هي حيوان) في وقت الاختبار. نطبق Inferbert بمهمة NLI على مجموعة متنوعة من أنواع الاستدلال (ارتفاع ضغط الدم، الموقع، اللون، وبلد بلد المنشأ)، التي جمعنا مجموعات بيانات التحدي. في هذا الإعداد، ينجح Inferbert في تعلم أنماط الاستدلال العام، من عدد صغير نسبيا من مثيلات التدريب، مع عدم إظليل الأداء على بيانات NLI الأصلية وتفوق نماذج تحسين المعرفة السابقة بشكل كبير على بيانات التحدي. وينطبق كذلك استنتاجاتها بنجاح في وقت اختبار الكيانات غير المفككة سابقا. Inferbert هو أكثر كفاءة على حسابي أكثر كفاءة من معظم الطرق السابقة، من حيث عدد المعلمات واستهلاك الذاكرة وتدريب الوقت.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

تعرض أمثلة الخصومة نقاط الضعف في نماذج معالجة اللغة الطبيعية (NLP)، ويمكن استخدامها لتقييم وتحسين متواضتهم. عادة ما تكون التقنيات الحالية لتوليد هذه الأمثلة تحركها القواعد المتخذة المحلية غير الملأمة في السياق، وغالبا ما تؤدي إلى مخرجات غير طبيعية وغ ير طبيعية. تقدم هذه الورقة كلير، وهو نموذج توليد مثال لمصدري محوري ينتج مخرجات بطلاقة وحكومية من خلال إجراءات قناع ثم تسلل. بناء Clare على نموذج لغة ملثم مسبقا مسبقا وتعديل المدخلات بطريقة تدرك السياق. نقترح ثلاث اضطرابات سياق، واستبدال وإدراج ودمج، والتي تسمح بتوليد مخرجات أطوال متنوعة. يمكن أن تجمع كلير بمرونة هذه الاضطرابات وتطبيقها في أي موقف في المدخلات، وبالتالي فهي قادرة على مهاجمة نموذج الضحية بشكل أكثر فعالية مع تعديلات أقل. توضح التجارب الواسعة والتقييم البشري أن كلير تتفوق على خطوط الأساس من حيث معدل النجاح الهجوم، والتشابه النصي والطلاقة والنحوية.
يتطلب بناء نماذج لمهام اللغة الطبيعية الواقعية التعامل مع النصوص الطويلة والمحاسبة التبعيات الهيكلية المعقدة.ظهرت تمثيلات رمزية عصبية كوسيلة للجمع بين قدرات التفكير في الأساليب الرمزية، مع تعبير الشبكات العصبية.ومع ذلك، فقد صممت معظم الأطر الموجودة ل لجمع بين التمثيل العصبي والرمزي لمهام التعلم العلائقية الكلاسيكية التي تعمل على الكون من الكيانات والعلاقات الرمزية.في هذه الورقة، نقدم دراسنا، وهو إطار إعلاني مفتوح المصدر لتحديد النماذج العلائقية العميقة، مصممة لدعم مجموعة متنوعة من سيناريوهات NLP.يدعم إطارنا سهلا التكامل مع تشفير اللغة التعبيرية، ويوفر واجهة لدراسة التفاعلات بين التمثيل والاستدلالية والتعلم.
يعد الكشف عن الموقف على Twitter تحديا بشكل خاص بسبب الطول القصير لكل سقسقة، والتعايش المستمر لمصطلحات جديدة وعلاج التصنيف، وانحراف هيكل الجملة من النثر القياسي.تم عرض نماذج لغة ذات ضبطها باستخدام بيانات داخل المجال على نطاق واسع لتكون الحالة الجديدة للعديد من مهام NLP، بما في ذلك اكتشاف الموقف.في هذه الورقة، نقترح طريقة رواية متناصة قائمة بذاتها تعزز نموذج اللغة الملثم للكشف عن الموقف.بدلا من إخفاء الرمز المميز العشوائي، نقترح استخدام نسبة مرجحة للأحكام المرجحة لتحديد الكلمات ذات الموقف العالي ومن ثم نموذج آلية الاهتمام التي تركز على هذه الكلمات.نظهر أن نهجنا المقترح يتفوق على حالة الفنية من أجل الكشف عن البيانات حول بيانات تويتر حول الانتخابات الرئاسية الأمريكية 2020.
إن الاستدلال اللغوي الطبيعي هو طريقة لإيجاد الاستدلالات في نصوص اللغة.فهم معنى الجملة واستدلالها أمر ضروري في العديد من تطبيقات معالجة اللغة.في هذا السياق، نعتبر مشكلة الاستدلال بلغة Dravidian، مالايالام.تدرب شبكات سيامي أزواج فرضية النص مع Adgedding s Word و Argeddings اللازم، ويتم تقييم النتائج مقابل مقاييس التصنيف للتصنيف الثنائي في دروس الاستقصاء والتناقض.توفر XLM-R AMBEBINGS القائم على الهندسة المعمارية السيامية باستخدام الوحدات المتكررة الدائرية وشبكات الذاكرة القصيرة الأجل الثنائية لفترة طويلة نتائج واعدة لمشكلة التصنيف هذه.
تم عرض الجمع بين نموذج لغة مسبق (PLM) مع أنماط نصية للمساعدة في كل من إعدادات الطلقة الصفرية وعدد. بالنسبة للأداء الصفر بالرصاص، فمن المنطقي تصميم أنماط تشبه النص الذي ينظر إليه عن كثب أثناء الاحتجاج بالإشراف على الذات لأن النموذج لم ير أي شيء آخر. ا لتدريب الخاضع للإشراف يسمح بمزيد من المرونة. إذا سمحنا بالرمز الرموز خارج المفردات PLM، فيمكن تكييف الأنماط بشكل أكثر مرونة لمصمم الخصوصيات PLM. الأنماط المتناقضة حيث يمكن أن يكون الرمز المميز أي ناقل مستمر من تلك التي يجب أن يتم فيها اختيار منفصل بين عناصر المفردات، ونحن نسمي أنماط طريقنا المستمرة (كونان). نقوم بتقييم كونان على معايير مدرجة للاستدلال المعجمي في السياق (LIIC) A.K.a. المستقلة المستقلة، وهي مهمة تفاهم لغة طبيعية صعبة مع بيانات تدريب صغيرة نسبيا. في مقارنة مباشرة مع الأنماط المنفصلة، ​​يؤدي كونان باستمرار إلى تحسين الأداء، وضع حالة من الفن الجديد. تجربتنا تعطي رؤى قيمة على نوع النمط الذي يعزز أداء PLM على LIC ورفع أسئلة مهمة فيما يتعلق بفهم PLMS باستخدام أنماط النص.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا