التغطية الواسعة التي تعني تعني التمثيلات في NLP التركيز في الغالب على المحتوى المعبر عنه صراحة. والأهم من ذلك أن ندرة مجموعات البيانات التلقائية للأدوار الضمنية المتنوعة يحد من الدراسات التجريبية في الدقوق اللغوي. على سبيل المثال، في مراجعة الويب خدمة رائعة! ''، المزود والمستهلك حجج ضمنية لأنواع مختلفة. نحن ندرس وجعة مشروحة من الحجج الضمنية الضمنية الجميلة (CUI و Hershcovich، 2020) من خلال إعادة النظر في ذلك بعناية، وحل العديد من التناقضات. في وقت لاحق، نقدم أول محلل عصبي يستند إلى الانتقال يمكن أن يتعامل مع الحجج الضمنية بشكل حيوي، وتجربة نظاميين انتقالين مختلفين على مجموعة بيانات محسنة. نجد أن أنواع معينة من الوسائط الضمنية أكثر صعوبة من غيرها من غيرها وأن النظام الأكثر دقة أكثر دقة في استرداد الوسائط الضمنية، على الرغم من وجود نقاط تحليل إجمالية أقل، مما يشهد قيود التفكير الحالية لنماذج NLP. سيسهل هذا العمل فهم أفضل للغة الضمنية والكشفية، من خلال دمجها بشكل كلي في تمثيلات المعنى.
Broad-coverage meaning representations in NLP mostly focus on explicitly expressed content. More importantly, the scarcity of datasets annotating diverse implicit roles limits empirical studies into their linguistic nuances. For example, in the web review Great service!'', the provider and consumer are implicit arguments of different types. We examine an annotated corpus of fine-grained implicit arguments (Cui and Hershcovich, 2020) by carefully re-annotating it, resolving several inconsistencies. Subsequently, we present the first transition-based neural parser that can handle implicit arguments dynamically, and experiment with two different transition systems on the improved dataset. We find that certain types of implicit arguments are more difficult to parse than others and that the simpler system is more accurate in recovering implicit arguments, despite having a lower overall parsing score, attesting current reasoning limitations of NLP models. This work will facilitate a better understanding of implicit and underspecified language, by incorporating it holistically into meaning representations.
References used
https://aclanthology.org/
BERTScore, a recently proposed automatic metric for machine translation quality, uses BERT, a large pre-trained language model to evaluate candidate translations with respect to a gold translation. Taking advantage of BERT's semantic and syntactic ab
We investigate the feasibility of defining sentiment evoked by fine-grained news events. Our research question is based on the premise that methods for detecting implicit sentiment in news can be a key driver of content diversity, which is one way to
Despite the success of neural dialogue systems in achieving high performance on the leader-board, they cannot meet users' requirements in practice, due to their poor reasoning skills. The underlying reason is that most neural dialogue models only cap
Dialogue summarization has drawn much attention recently. Especially in the customer service domain, agents could use dialogue summaries to help boost their works by quickly knowing customer's issues and service progress. These applications require s
Conventional entity typing approaches are based on independent classification paradigms, which make them difficult to recognize inter-dependent, long-tailed and fine-grained entity types. In this paper, we argue that the implicitly entailed extrinsic