في حين أن Framenet تعتبر على نطاق واسع كمورد غني من الدلالات في معالجة اللغات الطبيعية، فإن النقد الرئيسي يتعلق بعدم وجود تغطية وندرة نسبية لبياناتها المسمدة مقارنة بالموارد المعمارية الأخرى المستخدمة مثل Propbank و Verbnet. تقارير الورقة هذه عن دراسة تجريبية لمعالجة هذه الفجوات. نقترح نهج تكبير البيانات، والذي يستخدم التعليق التوضيحي الخاص بالإطار الحالي لإشراف الوحدات المعجمية الأخرى تلقائيا من نفس الإطار الذي يتم الكشف عنه. يحدد نهجنا القائم على القواعد فكرة الوحدة المعجمية الشقيقة ** وإنشاء بيانات معدنية خاصة بالإطار للتدريب. نقدم تجارب على وضع علامات الدور الدلالية الإطارية التي توضح أهمية تكبير البيانات هذا: نحصل على تحسن كبير في النتائج السابقة لتعريف الإطار وتحديد الوسيطة من أجل Framenet، والاستفادة من كل من النص التوضيحية والتعمادي بموجب Framenet. تسليط نتائج نتائجنا على زيادة البيانات بقيمة إنشاء الموارد التلقائي للنماذج المحسنة في تحليل الإطار الدلالي.
While FrameNet is widely regarded as a rich resource of semantics in natural language processing, a major criticism concerns its lack of coverage and the relative paucity of its labeled data compared to other commonly used lexical resources such as PropBank and VerbNet. This paper reports on a pilot study to address these gaps. We propose a data augmentation approach, which uses existing frame-specific annotation to automatically annotate other lexical units of the same frame which are unannotated. Our rule-based approach defines the notion of a **sister lexical unit** and generates frame-specific augmented data for training. We present experiments on frame-semantic role labeling which demonstrate the importance of this data augmentation: we obtain a large improvement to prior results on frame identification and argument identification for FrameNet, utilizing both full-text and lexicographic annotations under FrameNet. Our findings on data augmentation highlight the value of automatic resource creation for improved models in frame-semantic parsing.
المراجع المستخدمة
https://aclanthology.org/
في هذا العمل، قارننا تجريبيا أساليب استخراج الفصول لمهمة الدور الدلالي (SRL).في حين أن التقدم الأخير الذي يشتمل على تمثيلات محكومة مدربة مسبقا في الترميز العصبية قد حسن بشكل كبير أداء SRL F1 بشأن المعايير الشعبية، فإن التكاليف المهمة وفوائد فك التشفي
على الرغم من أن التطورات الأخيرة في الهندسة العصبية والتمثيلات المدربة مسبقا قد زادت بشكل كبير من الأداء النموذجي للحدث على وضع العلامات الدلالية الخاضعة للإشراف بالكامل (SRL)، فإن المهمة تظل تحديا لغات حيث تكون بيانات تدريب SRL الإشرافية غير وفيرة.ي
غالبا ما يتحلل ترجمة لغة الإشارة (SLT) في التعرف على الفيديو إلى اللمعان والترجمة النصية إلى النص، حيث يكون اللمعان سلسلة من الكلمات اللغوية الموضحة باللغة المنطوقة بالترتيب الذي يتم فيه توقيعه.نحن نركز هنا على الترجمة اللامع إلى النص، والتي نعلمها ك
تم عرض التعلم النشط للحد من متطلبات التوضيحية للعديد من مهام معالجة اللغة الطبيعية، بما في ذلك وضع العلامات الدلالية (SRL).تنطوي SRL على وسيطة وسيطة تمتد من أجل المحتمل أن يحتمل أن يتسرب المتعددة في جملة، مما يجعل من الصعب تجميع القرارات العديدة في د
إلى جانب توفر مجموعات بيانات واسعة النطاق، مكنت هياكل التعلم العميق التقدم السريع في مهمة الإجابة على السؤال.ومع ذلك، فإن معظم مجموعات البيانات هذه باللغة الإنجليزية، وأدائيات النماذج متعددة اللغات الحديثة أقل بكثير عند تقييمها على البيانات غير الإنج