نطلق سراح معيار جديد لاستبدال المعجمات، ومهمة العثور على بدائل مناسبة لكلمة مستهدفة في سياق. للكتابة، يمكن أن أنظمة بدائل معجمية مساعدة البشر من خلال اقتراح الكلمات التي لا يستطيع البشر التفكير فيها بسهولة. ومع ذلك، تعتمد المعايير الحالية على التذكير البشري باعتبارها المصدر الوحيد للبيانات، وبالتالي تفتقر إلى تغطية البدائل التي ستكون مفيدة للبشر. علاوة على ذلك، غالبا ما توفر المحن المعلقون بدائل منخفضة الجودة، والتي ليست مناسبة بالفعل في السياق المحدد. نقوم بجمع التغطية المرتفعة والبيانات ذات الجودة العالية عن طريق تأطير الاستبدال المعجمي كمشكلة تصنيف، تسترشد بالحزانة أنه من الأسهل بالنسبة للبشر الحكم على مدى ملاءمة بدائل المرشحين من الذاكرة. تحقيقا لهذه الغاية، نستخدم المرادفات الخالية من السياق لإنتاج المرشحين والاعتماد على الحكم الإنساني لتحديد مدى ملاءمة السياق. مقارنة بأكبر مؤشر سابق، فإن معيار سيوفنا يحتوي على 3X أكبر عدد ممكن من البدائل لكل كلمة مستهدفة لنفس المستوى من الجودة، وبدائلها أكثر ملاءمة (استنادا إلى الحكم الإنساني) لنفس العدد من البدائل.
We release a new benchmark for lexical substitution, the task of finding appropriate substitutes for a target word in a context. For writing, lexical substitution systems can assist humans by suggesting words that humans cannot easily think of. However, existing benchmarks depend on human recall as the only source of data, and therefore lack coverage of the substitutes that would be most helpful to humans. Furthermore, annotators often provide substitutes of low quality, which are not actually appropriate in the given context. We collect higher-coverage and higher-quality data by framing lexical substitution as a classification problem, guided by the intuition that it is easier for humans to judge the appropriateness of candidate substitutes than conjure them from memory. To this end, we use a context-free thesaurus to produce candidates and rely on human judgement to determine contextual appropriateness. Compared to the previous largest benchmark, our Swords benchmark has 3x as many substitutes per target word for the same level of quality, and its substitutes are 1.4x more appropriate (based on human judgement) for the same number of substitutes.
References used
https://aclanthology.org/
Modern summarization models generate highly fluent but often factually unreliable outputs. This motivated a surge of metrics attempting to measure the factuality of automatically generated summaries. Due to the lack of common benchmarks, these metric
We introduce a high-quality and large-scale Vietnamese-English parallel dataset of 3.02M sentence pairs, which is 2.9M pairs larger than the benchmark Vietnamese-English machine translation corpus IWSLT15. We conduct experiments comparing strong neur
Authorship attribution is the task of assigning an unknown document to an author from a set of candidates. In the past, studies in this field use various evaluation datasets to demonstrate the effectiveness of preprocessing steps, features, and model
Recent progress in natural language processing has led to Transformer architectures becoming the predominant model used for natural language tasks. However, in many real- world datasets, additional modalities are included which the Transformer does n
Challenging problems such as open-domain question answering, fact checking, slot filling and entity linking require access to large, external knowledge sources. While some models do well on individual tasks, developing general models is difficult as