تقدم هذه الورقة دراسة تجريبية للبيئة اللغوية التلقائية من التحليل اليوناني القديم والبيزنطي، والمورفولوجي بشكل أكثر تحديدا. تحقيقا لهذه الغاية، تم تدريب نموذج لغة بيرت القائم على الكلمات الفرعية على أساس نصوص متنوعة من النصوص اليونانية الحديثة والقديمة وما بعد الكلاسيكية. وبالتالي، أدرجت شرطة بيرت التي تم الحصول عليها لتدريب علامة جزء من الكلام من الرباعي عن اليونانية القديمة والبيزنطية. بالإضافة إلى ذلك، تم الإعلان عن كائن من Epigrams اليونانية يدويا واستخدم معيار الذهب الناتج لتقييم أداء محلل مورفولوجي على بيزنطين يوناني. تظهر النتائج التجريبية درجات حيرة جيدة للغاية (4.9) لنموذج لغة بيرت والأداء الحديثة لعلامة جزء من الكلام المحبب للبيانات داخل المجال (TreeBanks التي تحتوي على مزيج من الكلاسيكية والقرون الوسطى اليونانية)، وكذلك بالنسبة لمجموعة بيانات البيانات المالية اليونانية اليونانية التي تم إنشاؤها حديثا. يتم توفير نماذج اللغة والرمز المرتبط باستخدامها في https://github.com/pranaydeeps/ancient-greek-bert
This paper presents a pilot study to automatic linguistic preprocessing of Ancient and Byzantine Greek, and morphological analysis more specifically. To this end, a novel subword-based BERT language model was trained on the basis of a varied corpus of Modern, Ancient and Post-classical Greek texts. Consequently, the obtained BERT embeddings were incorporated to train a fine-grained Part-of-Speech tagger for Ancient and Byzantine Greek. In addition, a corpus of Greek Epigrams was manually annotated and the resulting gold standard was used to evaluate the performance of the morphological analyser on Byzantine Greek. The experimental results show very good perplexity scores (4.9) for the BERT language model and state-of-the-art performance for the fine-grained Part-of-Speech tagger for in-domain data (treebanks containing a mixture of Classical and Medieval Greek), as well as for the newly created Byzantine Greek gold standard data set. The language models and associated code are made available for use at https://github.com/pranaydeeps/Ancient-Greek-BERT
References used
https://aclanthology.org/
This research study the impact of additions to improve
limestone mortar properties to become comparable to hydraulic
lime which is used in other countries, by using additions relative
to that were used in the old mortar, also used modern additions
In this paper, we introduce the Greek version of the automatic annotation tool ERRANT (Bryant et al., 2017), which we named ELERRANT. ERRANT functions as a rule-based error type classifier and was used as the main evaluation tool of the systems parti
This paper presents EstBERT, a large pretrained transformer-based language-specific BERT model for Estonian. Recent work has evaluated multilingual BERT models on Estonian tasks and found them to outperform the baselines. Still, based on existing stu
Understanding idioms is important in NLP. In this paper, we study to what extent pre-trained BERT model can encode the meaning of a potentially idiomatic expression (PIE) in a certain context. We make use of a few existing datasets and perform two pr
The use of pretrained language models, fine-tuned to perform a specific downstream task, has become widespread in NLP. Using a generic language model in specialized domains may, however, be sub-optimal due to differences in language use and vocabular