لأكثر من ثلاثين عاما، قام الباحثون بتطوير وتحليل طرق لتحريض الأشجار الكامنة كهدوث لنهج التحليل النحوي غير المقترح. ومع ذلك، لا تزال الأنظمة الحديثة لا تؤدي بشكل جيد بما فيه الكفاية مقارنة بنظيراتهم الخاضعة للإشراف للحصول على أي استخدام عملي باسم التعليق الهيكلية للنص. في هذا العمل، نقدم تقنية تستخدم إشراف بعيد في شكل قيود سبعة (أي عبارة قوية) لتحسين الأداء في تحليل الدوائر الانتخابية غير المزدوجة. باستخدام عدد قليل نسبيا من قيود الأمان، يمكننا تحسين الإخراج بشكل كبير من Diora، وهو نظام تحليل غير مناسب بالفعل منافسة. بالمقارنة مع التعليق التوضيحي في شجرة التحليل الكامل، يمكن الحصول على قيود Span مع الحد الأدنى من الجهد، كما هو الحال مع معجم مشتق من ويكيبيديا، للعثور على مباريات نصية دقيقة. تجاربنا تظهر قيود الأمان على أساس الكيانات على تحسين تحليل الدوائر الانتخابية على بنك WSJ Penn TreeBank الإنجليزية بأكثر من 5 F1. علاوة على ذلك، تمتد طريقنا إلى أي مجال يتم فيه تحقيق قيود سبعة بسهولة، وكدراسة حالة نوضح فعاليتها من خلال تحليل النص الطبي الطبيعي من مجموعة بيانات الحرفية.
For over thirty years, researchers have developed and analyzed methods for latent tree induction as an approach for unsupervised syntactic parsing. Nonetheless, modern systems still do not perform well enough compared to their supervised counterparts to have any practical use as structural annotation of text. In this work, we present a technique that uses distant supervision in the form of span constraints (i.e. phrase bracketing) to improve performance in unsupervised constituency parsing. Using a relatively small number of span constraints we can substantially improve the output from DIORA, an already competitive unsupervised parsing system. Compared with full parse tree annotation, span constraints can be acquired with minimal effort, such as with a lexicon derived from Wikipedia, to find exact text matches. Our experiments show span constraints based on entities improves constituency parsing on English WSJ Penn Treebank by more than 5 F1. Furthermore, our method extends to any domain where span constraints are easily attainable, and as a case study we demonstrate its effectiveness by parsing biomedical text from the CRAFT dataset.
References used
https://aclanthology.org/
We present ReasonBert, a pre-training method that augments language models with the ability to reason over long-range relations and multiple, possibly hybrid contexts. Unlike existing pre-training methods that only harvest learning signals from local
In implicit discourse relation classification, we want to predict the relation between adjacent sentences in the absence of any overt discourse connectives. This is challenging even for humans, leading to shortage of annotated data, a fact that makes
Scientific literature analysis needs fine-grained named entity recognition (NER) to provide a wide range of information for scientific discovery. For example, chemistry research needs to study dozens to hundreds of distinct, fine-grained entity types
This study was made at ALASSAD Hospital-TISHREEN University in-LATTAKIA
at the Department of Obestetrics and Gynecology in the period between 1/1/2013 and
1/1/2014. The number of patients the study was 190.Including140 cases have been holding
memb
State-of-the-art deep neural networks require large-scale labeled training data that is often expensive to obtain or not available for many tasks. Weak supervision in the form of domain-specific rules has been shown to be useful in such settings to a