ترغب بنشر مسار تعليمي؟ اضغط هنا

ترميز موحد للهياكل في أنظمة مرحلة انتقالية

A Unified Encoding of Structures in Transition Systems

351   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

عادة ما تحتوي أنظمة الانتقال على العديد من الهياكل الديناميكية (على سبيل المثال، المداخن، المخازن المؤقتة).يجب أن يرميز النموذج المثالي في الانتقال هذه الهياكل تماما وكفاءة.تعمل الأعمال السابقة على الاعتماد على قوالب أو هياكل الشبكة العصبية إما تشفير معلومات بنية جزئية أو تعاني من كفاءة الحساب.في هذه الورقة، نقترح تمثيل تشفير جديد يستند إلى الانتباه إلى جميع الهياكل في نظام انتقالي.على وجه التحديد، نقوم بفصل وجهتين على العناصر الموجودة في الهياكل، وهي طريقة عرض هيكل ثابتة وعرض تعتمد على الهيكل.بمساعدة شبكة الاهتمام الصديقة بالتوازي، نحن قادرون على تشفير الدول الانتقالية مع O (1) تعقيد إضافي (فيما يتعلق باستخراج الميزة الأساسية).تظهر التجارب على PTB و UD أن طريقةنا المقترحة تعمل بشكل كبير على تحسين سرعة الاختبار وتحقق أفضل نموذج يستند إلى الانتقال، ومقارنة مع الطرق الحديثة.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

نماذج المحولات هي التقليب equivariant.لتزويد الطلب واكتب معلومات الرموز المميزة والإدخال، عادة ما تتم إضافتها إلى المدخلات.تعمل الأعمال الأخيرة الاختلافات المقترحة من الترميزات الموضعية مع ترميزات الموضع النسبي تحقيق أداء أفضل.يوضح تحليلنا أن المكسب يأتي في الواقع من نقل المعلومات الموضعية إلى طبقة الاهتمام من المدخلات.بدافع من ذلك، نقدم اهتماما ممتما مطردا للمحولات (النظام الغذائي)، وهي آلية بسيطة ولكنها فعالة لتشفير معلومات الموقف والقطاع في نماذج المحولات.تتمتع الطريقة المقترحة بتدريب ووقت الاستدلال بشكل أسرع، مع تحقيق أداء تنافسي في معايير الغراء وإكستريم و WMT.نحن نعتبر أكثر تعميم طريقتنا للمحولات الطويلة المدى وإظهار مكاسب الأداء.
تم دراسة تمثيلات الكلمات المخولة بمعلومات لغوية إضافية وأثبت أنها تتفوق على المدينات التقليدية. تركز الأساليب الحالية بشكل رئيسي على تضمينات التعلم للكلمات أثناء تضمينها من المعلومات اللغوية (المشار إليها باسم تضمين الحبوب) بعد التعلم. يقترح هذا العم ل تضمين ميداني إطار لإمكانية التعلم بشكل مشترك لكل من وظائف الكلمة والحبوب من خلال دمج المجالات اللغوية المورفولوجية والصوتية والخلوية. يزعم الإطار أن خط أنابيب مبتكرة غرامة يدمج الحقول اللغوية المتعددة وتنتج تسلسلات الحبوب عالية الجودة لتعلم تمثيلات الكلمات العليا. تم تصميم خوارزمية رواية أيضا لتعلم المدينات للكلمات والحبوب عن طريق التقاط المعلومات الواردة داخل كل مجال ويتم تقاسمها عبرها. النتائج التجريبية للمهام المعجمية ومهام معالجة اللغة الطبيعية المصب توضح أن إطار عملنا يمكن أن يتعلم أفضل تضمين الوزراء وشرح الحبوب. التقييمات النوعية تظهر تضييق الحبوب التقاط المعلومات الدلالية بشكل فعال.
على الرغم من أن الأبحاث حول Word Advedings قد حققت تقدما كبيرا في السنوات الأخيرة، فإن العديد من المهام في معالجة اللغة الطبيعية موجودة على مستوى الجملة. وبالتالي، من الضروري تعلم تضمين الجملة. في الآونة الأخيرة، يقترح عقوبة برت (SBERT) تعلم التشريح على مستوى الجملة، ويستخدم المنتج الداخلي (أو، التشابه الجيبكي) لحساب التشابه الدلالي بين الجمل. ومع ذلك، لا يمكن لهذا القياس وصف الهياكل الدلالية بين الجمل. السبب هو أن الجمل قد تكمن في مشعب في الفضاء المحيط بدلا من توزيع الفضاء الإقليدي. وبالتالي، فإن التشابه التجميل لا يمكن أن تقريب المسافات على المنوع. لمعالجة المشكلة الشديدة، نقترح طريقة تضمين عقوبة جديدة تسمى برت حكم مع الحفاظ على محلية (SBERT-LP)، والتي تكتشف الجملة الفرعية من الفضاء العالي الأبعاد ويمنح مجموعة فرعية تمثيل جملة مدمجة من قبل الهياكل الهندسية المحفوظة محليا من الجمل وبعد قارننا Sbert-LP مع العديد من نهج تضمين الجملة الحالية من ثلاثة وجهات نظر: تشابه الجملة، تصنيف الجملة وتجميع الجملة. تظهر النتائج التجريبية ودراسات الحالة أن طريقتنا ترميز الجمل بشكل أفضل بمعنى الهياكل الدلالية.
لا يمكن أن تلتقط نماذج تمثيل اللغة المدربة مسبقا مجردة مسبقا (PLMS) بشكل جيد معرفة واقعية من النص. في المقابل، يمكن أن تمثل طرق تضمين المعرفة (KE) بشكل فعال الحقائق العلائقية في الرسوم البيانية المعرفة (KGS) مع تضمينات كيانات مفيدة، لكن نماذج كيد الت قليدية لا يمكنها الاستفادة الكاملة من المعلومات النصية الوفيرة. في هذه الورقة، نقترح نموذجا موحدا لتضمين المعرفة و LanguagereTresentation المعرفي (Kepler)، والذي لا يمكن أن يدمج المعرفة الواقعية بشكل أفضل فقط في PLMS ولكنه ينتج أيضا كه معزز نصيا فعالا مع PLMS القوي. في Kepler، نقوم بتشفير أوصاف الكيان النصي مع PLM كأنبات، ثم قم بتحسين أهداف النمذجة Ke واللغة المشتركة. تظهر النتائج التجريبية أن Kepler يحقق أدائها الحديثة في مهام NLP المختلفة، ويعمل أيضا بشكل ملحوظ كنموذج كه حثي على التنبؤ بربط KG. علاوة على ذلك، بالنسبة إلى ما قبل التدريب وتقييم Kepler، فإننا نبني Wikidata5M1، ومجموعة بيانات KG واسعة النطاق مع أوصاف كيان محاذاة، وأساليب KE-the-the-the-the-the-the-benchmark على ذلك. يجب أن تكون بمثابة مرجع كيد جديد وتسهيل البحث في كجم كبير، حثي كه، و KG مع النص. يمكن الحصول على شفرة المصدر من https://github.com/thu-keg/kepler.
في الآونة الأخيرة، حقق نموذج لغوي كبير مدرب مسبقا يسمى T5 (محول نقل النصوص الموحد للنصوص) أداء حديثة في العديد من مهام NLP.ومع ذلك، لم يتم العثور على أي دراسة باستخدام هذا النموذج المدرب مسبقا على تبسيط النص.لذلك في هذه الورقة، نستكشف استخدام T5 Bric k-Tuning على تبسيط النص الجمع بين آلية يمكن التحكم فيها لتنظيم مخرجات النظام التي يمكن أن تساعد في إنشاء نص مكيفات للجماهير المستهدفة المختلفة.تبين تجاربنا أن نموذجنا يحقق نتائج رائعة مع مكاسب بين +0.69 و +1.41 عبر أحدث الولاية الحالية (بارت + الوصول).نقول أن استخدام نموذج مدرب مسبقا مثل T5، المدربين على عدة مهام مع كميات كبيرة من البيانات، يمكن أن يساعد في تحسين تبسيط النص.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا