يشكل التعرف التلقائي للأصويات مشكلة صعبة لتطبيقات NLP. في حين أن المتحدثين الأصليين يمكنهم التعامل بشكل حدسي مع تعبيرات متعددة الكلمات التي من الصعب تتبع معاني الكلمات التي تعود معانيها التركيبية إلى دلالات الكلمة الفردية، لا يزال هناك نطاق واسع لتحسين الأساليب الحسابية. نحن نفترض أن الإنشاءات الاصطلاحية يمكن أن تتم بها شدة تدريجية من عدم التركيز الدلالي، والتحددات الرسمية، وسياق استخدام غير عادي، وإدخال عدد من التدابير اللازمة لهذه الخصائص، وتتألف تدابير تجميع قائمة على العد والتنبؤية مع تدابير السياق (الأمم المتحدة )تشابه. نحن نقيم نهجنا على معيار الذهب المسمى يدويا، مشتقة من كائن من كلمات البوب الألمانية. تحقيقا لهذه الغاية، نطبق مصنف غابات عشوائي لتحليل المساهمة الفردية للميزات للكشف عن التعابير تلقائيا، ودراسة المفاضلة بين الاستدعاء والدقة. أخيرا، نقوم بتقييم المصنف في مجموعة بيانات مستقلة من التعابير المستخرجة من قائمة التعابير في ويكيبيديا، وتحقيق الدقة الحديثة.
The automatic recognition of idioms poses a challenging problem for NLP applications. Whereas native speakers can intuitively handle multiword expressions whose compositional meanings are hard to trace back to individual word semantics, there is still ample scope for improvement regarding computational approaches. We assume that idiomatic constructions can be characterized by gradual intensities of semantic non-compositionality, formal fixedness, and unusual usage context, and introduce a number of measures for these characteristics, comprising count-based and predictive collocation measures together with measures of context (un)similarity. We evaluate our approach on a manually labelled gold standard, derived from a corpus of German pop lyrics. To this end, we apply a Random Forest classifier to analyze the individual contribution of features for automatically detecting idioms, and study the trade-off between recall and precision. Finally, we evaluate the classifier on an independent dataset of idioms extracted from a list of Wikipedia idioms, achieving state-of-the art accuracy.
References used
https://aclanthology.org/
Song lyrics convey a multitude of emotions to the listener and powerfully portray the emotional state of the writer or singer. This paper examines a variety of modeling approaches to the multi-emotion classification problem for songs. We introduce th
We address the problem of language model customization in applications where the ASR component needs to manage domain-specific terminology; although current state-of-the-art speech recognition technology provides excellent results for generic domains
Data in general encodes human biases by default; being aware of this is a good start, and the research around how to handle it is ongoing. The term bias' is extensively used in various contexts in NLP systems. In our research the focus is specific to
This paper presents a technique for the identification of participant slots in English language contracts. Taking inspiration from unsupervised slot extraction techniques, the system presented here uses a supervised approach to identify terms used to
De-identification is the task of detecting privacy-related entities in text, such as person names, emails and contact data. It has been well-studied within the medical domain. The need for de-identification technology is increasing, as privacy-preser