إن مهمة التشخيص التلقائي تشفيرها في التصنيفات الطبية القياسية والاتحاد، لها أهمية كبيرة في الطب - كلاهما لدعم المهام اليومية للأطباء في إعداد الوثائق السريرية والإبلاغ عن التقارير السريرية. في هذه الورقة، نحقق في تطبيق وأداء محولات التعلم العميق المختلفة للترميز التلقائي في ICD-10 من النصوص السريرية في البلغارية. يحاول التحليل المقارن العثور على النهج الذي هو أكثر كفاءة لاستخدامه في ضبط محول الأسرة برت المحدود إلى التعامل مع مصطلحات مجال معين على لغة نادرة مثل البلغارية. على جانب واحد، تستخدم سلافيكبرت و Multirigualbert، والتي يتم الاحترام من أجل المفردات الشائعة في البلغارية، ولكن تفتقر إلى المصطلحات الطبية. من ناحية أخرى، يتم استخدام BioBert، Clinicalbert، Sapbert، Bluebert، والتي يتم الاحتراج بها للمصطلحات الطبية باللغة الإنجليزية، ولكنها تفتقر إلى التدريب لنماذج اللغة باللغة البلغارية، وأكثر من اللازم للمفردات في السيريلية. في دراسة الأبحاث الخاصة بنا، يتم ضبط جميع نماذج Bert بشكل جيد مع نصوص طبية إضافية في البلغارية ثم تطبق على مهمة التصنيف لترميز التشخيصات الطبية في البلغارية في رموز ICD-10. يستخدم Big Corpora للتشخيص في البلغاري المشروح مع رموز ICD-10 لمهمة التصنيف. يمنح مثل هذا التحليل فكرة جيدة عن النماذج مناسبة لمهام نوع مماثل ومجال. تظهر نتائج التجارب والتقييم أن كلا النهجتين لها دقة مماثلة.
The task of automatic diagnosis encoding into standard medical classifications and ontologies, is of great importance in medicine - both to support the daily tasks of physicians in the preparation and reporting of clinical documentation, and for automatic processing of clinical reports. In this paper we investigate the application and performance of different deep learning transformers for automatic encoding in ICD-10 of clinical texts in Bulgarian. The comparative analysis attempts to find which approach is more efficient to be used for fine-tuning of pretrained BERT family transformer to deal with a specific domain terminology on a rare language as Bulgarian. On the one side are used SlavicBERT and MultiligualBERT, that are pretrained for common vocabulary in Bulgarian, but lack medical terminology. On the other hand in the analysis are used BioBERT, ClinicalBERT, SapBERT, BlueBERT, that are pretrained for medical terminology in English, but lack training for language models in Bulgarian, and more over for vocabulary in Cyrillic. In our research study all BERT models are fine-tuned with additional medical texts in Bulgarian and then applied to the classification task for encoding medical diagnoses in Bulgarian into ICD-10 codes. Big corpora of diagnosis in Bulgarian annotated with ICD-10 codes is used for the classification task. Such an analysis gives a good idea of which of the models would be suitable for tasks of a similar type and domain. The experiments and evaluation results show that both approaches have comparable accuracy.
References used
https://aclanthology.org/
This paper describes our submission to SemEval-2021 Task 1: predicting the complexity score for single words. Our model leverages standard morphosyntactic and frequency-based features that proved helpful for Complex Word Identification (a related tas
The International Classification of Diseases (ICD) is a system for systematically recording patients' diagnoses. Clinicians or professional coders assign ICD codes to patients' medical records to facilitate funding, research, and administration. In m
Using data from English cloze tests, in which subjects also self-reported their gender, age, education, and race, we examine performance differences of pretrained language models across demographic groups, defined by these (protected) attributes. We
Existing text classification methods mainly focus on a fixed label set, whereas many real-world applications require extending to new fine-grained classes as the number of samples per label increases. To accommodate such requirements, we introduce a
The deep learning algorithm has recently achieved a lot of success, especially in the field of computer vision. This research aims to describe the classification method applied to the dataset of multiple types of images (Synthetic Aperture Radar (SAR