ترغب بنشر مسار تعليمي؟ اضغط هنا

نمذجة المحتوى والسياق مع التعلم العلائقية العميقة

Modeling Content and Context with Deep Relational Learning

316   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

يتطلب بناء نماذج لمهام اللغة الطبيعية الواقعية التعامل مع النصوص الطويلة والمحاسبة التبعيات الهيكلية المعقدة.ظهرت تمثيلات رمزية عصبية كوسيلة للجمع بين قدرات التفكير في الأساليب الرمزية، مع تعبير الشبكات العصبية.ومع ذلك، فقد صممت معظم الأطر الموجودة للجمع بين التمثيل العصبي والرمزي لمهام التعلم العلائقية الكلاسيكية التي تعمل على الكون من الكيانات والعلاقات الرمزية.في هذه الورقة، نقدم دراسنا، وهو إطار إعلاني مفتوح المصدر لتحديد النماذج العلائقية العميقة، مصممة لدعم مجموعة متنوعة من سيناريوهات NLP.يدعم إطارنا سهلا التكامل مع تشفير اللغة التعبيرية، ويوفر واجهة لدراسة التفاعلات بين التمثيل والاستدلالية والتعلم.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

حققت خوارزمية التعلم العميق مؤخرًا الكثير من النجاح خاصة في مجال رؤية الكمبيوتر.يهدف البحث الحالي إلى وصف طريقة التصنيف المطبقة على مجموعة البيانات الخاصة بأنواع متعددة من الصور (صور الرادار ذي الفجوة المركبةSAR والصور ليست SAR) ، أستخدم نقل التعلم م تبوعًا بأساليب الضبط الدقيق في مخطط التصنيف هذا . تم استخدام بنيات مدربة مسبقًا على قاعدة بيانات الصور المعروفهImageNet، تم استخدام نموذج VGG 16 بالفعل كمستخرج ميزات وتم تدريب مصنف جديد بناءً على الميزات المستخرجة .تركز بيانات الإدخال بشكل أساسي على مجموعة البيانات التي تتكون من خمس فئات فئة صور الرادارSAR (المنازل) وفئات الصور ليستSAR (القطط والكلاب والخيول والبشر). تم اختيار الشبكة العصبية التلافيفية (CNN) كخيار أفضل لـعملية التدريب لانها نتجت عن دقة عالية. لقد وصلنا إلى الدقة النهائية بنسبة 91.18٪ في خمس فئات مختلفة. تتم مناقشة النتائج من حيث احتمالية الدقة لكل فئة في تصنيف الصورة بالنسبة المئوية. تحصل فئة القطط على 99.6٪ ، بينما تحصل فئة المنازل على 100٪ وتحصل انواع آخرى من الفئات بمتوسط درجات 90٪ وما فوق.
ألقى النمو الأسي للإنترنت والوسائط الاجتماعية في العقد الماضي الطريق إلى زيادة نشر المعلومات الخاطئة أو المضللة. منذ الانتخابات الرئاسية الأمريكية لعام 2016، أصبحت مصطلح أخبار وهمية "أصبحت شعبية متزايدة وقد تلقت هذه الظاهرة اهتماما أكبر. في السنوات ا لماضية، تم إنشاء العديد من وكالات فحص الحقائق، ولكن بسبب عدد كبير من الوظائف اليومية على وسائل التواصل الاجتماعي، والفحص اليدوي غير كاف. حاليا، هناك حاجة ملحة لأدوات الكشف عن الأخبار التلقائي، إما لمساعدة قوائم الداما اليدوية أو التشغيل كأدوات قائمة بذاتها. هناك العديد من المشاريع جارية حول هذا الموضوع، لكن معظمهم يركزون على اللغة الإنجليزية. تناقش ورقة البحث في البحث هذه توظيف أساليب التعلم العميق، وتطوير أداة، للكشف عن الأخبار الخاطئة باللغة البرتغالية. كخطوة أولى، سنقوم بمقارنة الهيغات الراسخة التي تم اختبارها بلغات أخرى وتحليل أدائها على بياناتنا البرتغالية. بناء على النتائج الأولية لهذه المصنفات، يجب أن نختار نموذجا للتعلم العميق أو الجمع بين العديد من نماذج التعلم العميق التي تعاني من وعد لتعزيز أداء نظام الكشف عن الأخبار المزيف.
تم اعتماد اهتمام الذات مؤخرا لمجموعة واسعة من مشاكل النمذجة التسلسلية. على الرغم من فعاليته، فإن اهتمام الذات يعاني من حساب التربيعي ومتطلبات الذاكرة فيما يتعلق بطول التسلسل. تركز النهج الناجحة للحد من هذا التعقيد على حضور النوافذ المنزلق المحلية أو مجموعة صغيرة من المواقع مستقلة عن المحتوى. يقترح عملنا تعلم أنماط الانتباه ديناميكية متناثرة تتجنب تخصيص الحساب والذاكرة لحضور المحتوى غير المرتبط باستعلام الفائدة. يبني هذا العمل على سطرين من الأبحاث: فهو يجمع بين مرونة النمذجة للعمل المسبق على اهتمام متمرد للمحتوى مع مكاسب الكفاءة من الأساليب القائمة على الاهتمام المحلي والزموني المتناثر. نموذجنا، محول التوجيه، ينفذ عن النفس مع وحدة توجيه متناثرة تعتمد على الوسائل K عبر الإنترنت مع تقليل التعقيد العام للانتباه إلى O (N1.5D) من O (N2D) لطول التسلسل N وبعد المخفي D. نظرا لأن نموذجنا يتفوق على نماذج انتباه متناثرة قابلة للمقارنة على نمذجة اللغة على Wikitext-103 (15.8 مقابل 18.3 حيرة)، وكذلك على جيل الصورة على Imagenet-64 (3.43 مقابل 3.44 بت / خافت) أثناء استخدام طبقات أقل من الاهتمام الذاتي. بالإضافة إلى ذلك، وضعنا مجموعة جديدة من مجموعة جديدة من مجموعة بيانات PG-19 التي تم إصدارها حديثا، والحصول على اختبار حيرة من 33.2 مع نموذج محول توجيه 22 طبقة مدرب على تسلسل الطول 8192. نحن نفتح المصدر لتحويل التوجيه في Tensorflow.1
على الرغم من النجاحات الأخيرة للنماذج المحول القائمة على المحولات من حيث الفعالية في مجموعة متنوعة من المهام، غالبا ما تظل قراراتها مبهمة للبشر.تعتبر التفسيرات مهمة بشكل خاص للمهام مثل اللغة الهجومية أو الكشف عن السمية على وسائل التواصل الاجتماعي لأن عملية الاستئناف اليدوية غالبا ما تكون في مكانها للتنازل عن المحتوى الموضح تلقائيا.في هذا العمل، نقترح تقنية لتحسين إمكانية تفسير هذه النماذج، بناء على افتراض بسيط وقوي: منشور على الأقل سميك مثل أكثر سبتمته سامة.نحن ندمج هذا الافتراض في نماذج المحولات من خلال تسجيل وظيفة بناء على الحد الأقصى للسمية من يمتد ويزيد عملية التدريب لتحديد المواقف الصحيحة.نجد هذا النهج فعال ويمكننا إنتاج تفسيرات تتجاوز جودة تلك المنصوص عليها في تحليل الانحدار اللوجستي (غالبا ما تعتبر نموذجا واضحا للغاية)، وفقا لدراسة بشرية.
أظهر تعلم التعزيز العميق إمكانات كبيرة في سياسات الحوار التدريبية. ومع ذلك، فإن أدائها المواتي يأتي بتكلفة العديد من جولات التفاعل. تعتمد معظم أساليب سياسة الحوار الحالية على نظام تعليمي واحد، في حين أن الدماغ البشري يحتوي على نظامين لتعلم وذاكرة متخ صصين، يدعمان لإيجاد حلول جيدة دون الحاجة إلى أمثلة غزيرة. مستوحاة من الدماغ البشري، تقترح هذه الورقة إطار عمل لتعلم السياسات التكميلي الرواية (CPL)، والتي تستغل المزايا التكميلية لسياسة الذاكرة العرضية (EM) وسياسة شبكة Q-Network (DQN) العميقة لتحقيق تعلم سياسة حوار سريعة وفعالة وبعد من أجل التنسيق بين السياسة، اقترحنا وحدة تحكم الثقة للسيطرة على الوقت التكميلي وفقا لفعولتها النسبية في مراحل مختلفة. علاوة على ذلك، يتم اقتراح اتصال الذاكرة وتقليم الوقت لضمان التعميم المرن والتكيف للسياسة EM في مهام الحوار. تظهر النتائج التجريبية على ثلاث مجموعات بيانات الحوار أن طريقتنا تتفوق بشكل كبير على الطرق الحالية التي تعتمد على نظام تعليمي واحد.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا