ترغب بنشر مسار تعليمي؟ اضغط هنا

على الاستفادة من الإشراف النحوي للنقل عبر اللغات في وضع العلامات الدلالية

On the Benefit of Syntactic Supervision for Cross-lingual Transfer in Semantic Role Labeling

287   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

على الرغم من أن التطورات الأخيرة في الهندسة العصبية والتمثيلات المدربة مسبقا قد زادت بشكل كبير من الأداء النموذجي للحدث على وضع العلامات الدلالية الخاضعة للإشراف بالكامل (SRL)، فإن المهمة تظل تحديا لغات حيث تكون بيانات تدريب SRL الإشرافية غير وفيرة.يمكن للتعلم عبر اللغات تحسين الأداء في هذا الإعداد عن طريق نقل المعرفة من لغات الموارد عالية الموارد إلى الموارد المنخفضة.علاوة على ذلك، فإننا نفترض أن شرطية التبعيات النحوية يمكن أن يتم الاستفادة منها لتسهيل نقل عبر اللغات.في هذا العمل، نقوم بإجراء عملية استكشاف تجريبي لمساعدة الإشراف النحوي عن Crosslingual SRL ضمن مخطط تعليمي بسيط متعدد الأيتاح.مع التقييمات الشاملة عبر عشرة لغات (بالإضافة إلى اللغة الإنجليزية) وثلاثة بيانات معيار SRL، بما في ذلك SRL على حد سواء SRL المستندة إلى التبعية والمقرها، فإننا نعرض فعالية الإشراف النحامي في سيناريوهات منخفضة الموارد.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

في هذا العمل، قارننا تجريبيا أساليب استخراج الفصول لمهمة الدور الدلالي (SRL).في حين أن التقدم الأخير الذي يشتمل على تمثيلات محكومة مدربة مسبقا في الترميز العصبية قد حسن بشكل كبير أداء SRL F1 بشأن المعايير الشعبية، فإن التكاليف المهمة وفوائد فك التشفي ر المنظم في هذه النماذج أصبحت أقل وضوحا.مع تجارب واسعة النطاق على مجموعات بيانات Propbank SRL، نجد أن طرق فك التشفير أكثر تنظيما تفوق العلامات الحيوية عند استخدام Asceddings ثابت (نوع الكلمات) عبر جميع الإعدادات التجريبية.ومع ذلك، عند استخدامها جنبا إلى جنب مع تمثيلات الكلمات السياقية المدربة مسبقا، يتم تقلص الفوائد.نقوم أيضا بتجربة الإعدادات عبر النوع والإعدادات عبر اللغات والعثور على اتجاهات مماثلة.ونحن نؤدي كذلك إلى مقارنات السرعة وتوفير التحليل حول مفاضات الكفاءة الدقة بين أساليب فك التشفير المختلفة.
تم الآن إنشاء أن نماذج اللغة العصبية الحديثة يمكن تدريبها بنجاح على لغات متعددة في وقت واحد دون تغييرات على الهندسة المعمارية الأساسية، وتوفير طريقة سهلة لتكييف مجموعة متنوعة من نماذج NLP لغات الموارد المنخفضة.ولكن ما نوع المعرفة المشتركة حقا بين الل غات داخل هذه النماذج؟هل يؤدي التدريب المتعدد اللغات في الغالب إلى محاذاة مساحات التمثيل المعجمية أو هل تمكن أيضا تقاسم المعرفة النحوية بحتة؟في هذه الورقة، نشرج أشكال مختلفة من التحويل المتبادل والبحث عن عواملها الأكثر تحديدا، باستخدام مجموعة متنوعة من النماذج والمهام التحقيق.نجد أن تعريض LMS لدينا بلغة ذات صلة لا تؤدي دائما إلى زيادة المعرفة النحوية في اللغة المستهدفة، وأن الظروف المثلى للنقل الدلالي المعجمي قد لا تكون الأمثل للتحويل النحوي.
في حين أن Framenet تعتبر على نطاق واسع كمورد غني من الدلالات في معالجة اللغات الطبيعية، فإن النقد الرئيسي يتعلق بعدم وجود تغطية وندرة نسبية لبياناتها المسمدة مقارنة بالموارد المعمارية الأخرى المستخدمة مثل Propbank و Verbnet. تقارير الورقة هذه عن دراس ة تجريبية لمعالجة هذه الفجوات. نقترح نهج تكبير البيانات، والذي يستخدم التعليق التوضيحي الخاص بالإطار الحالي لإشراف الوحدات المعجمية الأخرى تلقائيا من نفس الإطار الذي يتم الكشف عنه. يحدد نهجنا القائم على القواعد فكرة الوحدة المعجمية الشقيقة ** وإنشاء بيانات معدنية خاصة بالإطار للتدريب. نقدم تجارب على وضع علامات الدور الدلالية الإطارية التي توضح أهمية تكبير البيانات هذا: نحصل على تحسن كبير في النتائج السابقة لتعريف الإطار وتحديد الوسيطة من أجل Framenet، والاستفادة من كل من النص التوضيحية والتعمادي بموجب Framenet. تسليط نتائج نتائجنا على زيادة البيانات بقيمة إنشاء الموارد التلقائي للنماذج المحسنة في تحليل الإطار الدلالي.
لقد أظهر العمل الحديث أن نماذج اللغة المحظورة غير المؤمنة تعلمت تمثيل مفاهيم تقلص البيانات من تباين اللغة والتي يمكن استخدامها لتحديد بيانات التدريب المستهدف بالمجال. تتوفر تسميات أنواع DataSet في كثير من الأحيان، ومع ذلك لا تزال غير مستكشفة إلى حد ك بير في الإعدادات عبر اللغات. نستفيد هذا النوع من البيانات الوصفية باعتباره إشارة إشرافية ضعيفة لتحديد البيانات المستهدف في تحليل التبعية الصفرية. على وجه التحديد، نقوم بتعيين معلومات النوع من Treebank-Level لمستوى الجملة على مستوى الجملة الدقيقة، بهدف تضخيم المعلومات المخزنة ضمنيا في تمثيلات سياقية غير مدفوعة غير المدعومة. نوضح أن هذا النوع قابل للاسترداد من المدينات السياقية متعددة اللغات وأنه يوفر إشارة فعالة لتحديد بيانات التدريب في السيناريوهات عبر اللغات والصفرية. بالنسبة إلى 12 لغة Low-Resource Treebanks، ستة منها اختبار فقط، فإن أساليبنا الخاصة النوعية تفوقها بشكل كبير خطوط الأساس التنافسية وكذلك الأساليب القائمة على التضمين الحديثة لتحديد البيانات. علاوة على ذلك، يوفر اختيار البيانات المستندة إلى النوع من النوعين نتائج جديدة من الفنادق الجديدة لمدة ثلاثة من هذه اللغات المستهدفة.
في حين أن تقنيات التبغيات المتبقية تجد نجاحا متزايدا في مجموعة واسعة من مهام معالجة اللغة الطبيعية، فإن تطبيقها على الدورات الدلالية (SRL) كان محدودا بقوة من خلال حقيقة أن كل لغة تعتمد شكليها اللغوي الخاص بها، من Propbank من أجل أنظمة إنجليكزي للإسبا نية و PDT-VALLEX لتشيك، في جملة أمور. في هذا العمل، نتعلم هذه المشكلة وتقديم نموذج موحد لأداء SRL عبر اللغات عبر الموارد اللغوية غير المتجانسة. يتعلم نموذجنا ضمنيا تعيين عالي الجودة من أجل الشكليات المختلفة عبر لغات متنوعة دون اللجوء إلى محاذاة Word وتقنيات الترجمة. نجد ذلك، ليس فقط نظامنا المتبادل لدينا تنافس مع الحالة الحالية للفن ولكنها قوية أيضا على سيناريوهات البيانات المنخفضة. من المثير للاهتمام، من المثير للاهتمام، نموذجنا الموحد قادر على التعليق الجملة في تمريرة واحدة إلى الأمام مع جميع المخزونات التي تم تدريبها عليها، وتوفير أداة لتحليل ومقارنة النظريات اللغوية عبر لغات مختلفة. نطلق سردنا ونموذجنا في https://github.com/sapienzanlp/unify-srl.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا