ترغب بنشر مسار تعليمي؟ اضغط هنا

إن إزالة الكيانات المسماة (NED)، والتي تنطوي على رسم الخرائط النصية للكيانات الهيكلية، تحديا بشكل خاص في المجال الطبي بسبب وجود كيانات نادرة.تقتصر الأساليب الحالية بوجود الموارد الهيكلية الخشونة في قواعد المعرفة الطبية الحيوية وكذلك استخدام مجموعات ا لبيانات التدريبية التي توفر تغطية منخفضة على الموارد غير الشائعة.في هذا العمل، نتعلم هذه المشكلات من خلال اقتراح طريقة تكامل بيانات عبر المجال التي تنقل المعرفة الهيكلية من قاعدة معارف النص العامة إلى المجال الطبي.نحن نستخدم مخطط الاندماج لدينا لزيادة الموارد الهيكلية وتوليد مجموعة بيانات كبيرة بييوميديا للأحاد المحاكمة.يحقق نموذج عائليتنا مع المعرفة الهيكلية المحقونة أداء حديثة على مجموعة بيانات القياس الطبية القياسية: التوصيلات و BC5CDR.علاوة على ذلك، فإننا نحسن الغموض من كيانات نادرة تصل إلى 57 نقطة دقة.
في هذه الورقة، نقدم المهمة السامية الأولى على الغموض المتعددة اللغات والبلاية في السياق (MCL-WIC). تتيح هذه المهمة القدرة الكامنة التي تم التحقيق بها إلى حد كبير من القدرة المتأصلة إلى حد كبير في التمييز بين حواس الكلمات داخل وبصور اللغات المراد تقيي مها، مما أدى إلى تقييم متطلبات جرد ذات معنى ثابت. مؤطرة كتصنيف ثنائي، مهمتنا مقسمة إلى جزأين. في المهمة الفرعية متعددة اللغات، يتعين على النظم المشاركة تحديد ما إذا كانت كلمتين مستهدفتين، كل منهما يحدث في سياق مختلف داخل نفس اللغة، معبرا عن نفس المعنى أم لا. بدلا من ذلك، في الجزء اللغوي، يطلب من النظم إجراء المهمة في سيناريو عبر اللغات، حيث يتم توفير الكلمات المستهدفة والسياقتين المقابلين بلغتين مختلفتين. نوضح مهمتنا، وكذلك بناء مجموعة بياناتنا التي أنشأنا يدويا بما في ذلك خمس لغات، وهي العربية والصينية والإنجليزية والفرنسية والروسية، ونتائج النظم المشاركة. مجموعات البيانات والنتائج متوفرة في: https://github.com/sapienzanlp/mcl-wic.
في هذه الورقة، نقدم نظامنا الذي شاركناه في مهمة Semeval Semeval Semeval Semeval 2021. في تجاربنا، حققنا في إمكانية استخدام نظام غموض من معنى الكلام من الكلمات الدقيقة التي تم تدريبها على البيانات المشروحة ذات الإحساس باللغة الإنجليزية ورسم تنبؤات على التكافؤ الدلالي للكلمات في السياق بناء على تشابه القوائم المرتبة يتعين اتخاذ إجراءات Wordnet (الإنجليزية) التي تم إرجاعها لقرارات الكلمات المستهدفة. نغلبنا على الجوانب المتعددة، والأشياء عبر اللغات من المهمة المشتركة من خلال تطبيق محول متعدد اللغات لترميز النصوص المكتوبة في اللغة العربية والإنجليزية والفرنسية والروسية والصينية. في حين أن نتائجنا تتأخر وراء التقديمات الكبيرة التقديرات، إلا أنها تتمتع بالفائدة التي لا توفر فقط علم ثنائي سواء كانت كلمتين في سياقها لها نفس المعنى، ولكنها توفر أيضا إخراج أكثر ملموسة في شكل قائمة في المرتبة (الإنجليزية) يتخلخل Wordnet بغض النظر عن لغة نصوص الإدخال. نظرا لأن إطارنا مصمم ليكون عاميا قدر الإمكان، فيمكن تطبيقه كأساس أساسي لأي لغة (مدعومة من الهندسة المعمارية المتعددة اللغات المستخدمة) حتى في غياب أي شكل إضافي من بيانات التدريب المحددة للغة.
تصف هذه الورقة التقديم الخاص بنا إلى مهمة Semeval 2021 2. نحن نقارن قاعدة XLM-Roberta وكبير في إعدادات القليل من اللقطات والطلق الرصاص واختبار فعاليا فعالية استخدام مصنف جيران K-Enter في إعداد القليل من القصاصات بدلا منأكثر التقليدية متعددة الطبقات p erceptron.تظهر تجاربنا على كل من البيانات متعددة اللغات واللغة أن XLM-Roberta Large، على عكس الإصدار الأساسي، يمكن أن يكون قادرا على نقل التعلم بشكل أكثر فعالية في بيض بضع طلقة وأن مصنف الجيران K-Neave هو في الواقعمصنف أكثر قوة من بيرسيبترون متعدد الطبقات عند استخدامه في التعلم القليل من اللقطة.
تقدم هذه الورقة نظام الفوز لفريق بالي لمهمة SEMEVAL-2021 2: غزالة متعددة اللغات والتبلغة في السياق.نحن نغتنم نموذج XLM-Roberta لحل مهمة Word في حالة غموض السياق، أي، لتحديد ما إذا كانت الكلمة المستهدفة في السياقتين تحتوي على نفس المعنى أم لا.في التنف يذ، نقوم أولا بتصميم علامة الإدخال أولا للتأكيد على الكلمة المستهدفة في السياقات.ثانيا، نقوم بإنشاء متجه جديد على المدينات الدقيقة من XLM-Roberta وأعلفه بشبكة متصلة بالكامل لإخراج احتمال ما إذا كانت الكلمة المستهدفة في السياق لها نفس المعنى أم لا.يتم تحقيق المتجهات الجديد من خلال التمسك بتضمين الرمز المميز [CLS] ومذكرات الكلمة المستهدفة في السياقات.في التدريب، نستكشف العديد من الحيل، مثل محسن الحارس، وتعزيز البيانات، والتدريب الخصم، لتحسين التنبؤ النموذجي.وبالتالي، فإننا نحصل على المركز الأول في جميع المهام الأربعة عبر اللغات.
تقدم هذه الورقة مجموعة من التجارب لتقييم ومقارنتها بين أداء استخدام نماذج CBOW Word2VEC و Lemma2vec للغموض باللغة العربية في السياق (WIC) دون استخدام مخزونات الإحساس أو Asbeddings المعنى.كجزء من المهمة المشتركة Semeval-2021 2 على Devambiguation WIC، استخدمنا DEV.AR-AR-ARSET (أزواج الجملة 2K) لتحديد ما إذا كانت كلمتين في زوج جملة معينة تحمل نفس المعنى.استخدمنا نماذج Word2vec: Wiki-cbow، وهو نموذج مدرب مسبقا على Wikipedia العرب، ونموذج آخر تدربنا على كورسا عربية كبيرة من حوالي 3 مليارات رموز.كما تم بناء نماذج LEMMA2VEC بناء على نماذج Word2vec.بعد ذلك تم استخدام كل من النماذج الأربعة في مهمة Disambiguation WIC، ثم يتم تقييمها على DataSet Semeval-2021 Test.ar-Ar-Ar.في النهاية، أبلغنا عن أداء النماذج المختلفة ومقارنتها بين استخدام النماذج القائمة على Lemma ومقرها الكلمات.
تقدم هذه الورقة مناهجنا إلى مهمة Semeval-2021 2: مهمة غموض متعددة اللغات والتبلغة في السياق.حاول النهج الأول إعادة صياغة المهمة كمسألة مسألة الإجابة على المشكلة، في حين أن ثاني واحدة مؤطرة أنها مشكلة تصنيف ثنائية.أفضل نظام لدينا، الذي يعد فرقة من الط بقات الثنائية المصنوعة من XLM-R المدربين مع زيادة البيانات، هو من بين 3 أنظمة أفضل أداء للروسية والفرنسية والعربية في التراكب الفرعي متعدد اللغات.في فترة ما بعد التقييم، جربنا بتطبيع الدفعات، تجمع الكلمات الفرعية وأساليب تجميع الكلمات المستهدفة، مما يؤدي إلى مزيد من التحسينات الأداء.
في هذه الورقة، نصف أساليبنا المقترحة لمهمة الغموض المتعددة اللغات في السياق في Semeval-2021.في هذه المهمة، يجب أن تحدد الأنظمة ما إذا كانت الكلمة التي تحدث في جملتين مختلفة يتم استخدامها بنفس المعنى أم لا.اقترحنا عدة طرق باستخدام نموذج بيرت المدرب مس بقا.في اثنين منهم، نقوم بتعديل الجمل وإضافتهم كمدخلات إلى بيرت، وفي أحدهم، استخدمنا WordNet لإضافة بعض المعلومات المعجمية الإضافية.قمنا بتقييم طرقنا المقترحة على بيانات الاختبار في مهمة Semeval- 2021 2.
في هذا العمل، نقدم نهجنا لحل المهمة Semeval 2021 2: الغموض المتعددة اللغات والتبلغة في السياق (MCL-WIC). المهمة هي مشكلة تصنيف زوج الجملة حيث يكون الهدف هو اكتشاف ما إذا كانت كلمة معينة مشتركة بين كل من الجمل تثير نفس المعنى. نقدم أنظمة لكلا الإعدادا ت - متعددة اللغات (جمل الزوج تنتمي إلى نفس اللغة) واللغة اللغوية (جمل الزوج تنتمي إلى لغات مختلفة). يتم توفير بيانات التدريب باللغة الإنجليزية فقط. وبالتالي، فإننا نوظف تقنيات النقل عبر اللغات. توظف نهجنا نماذج اللغة القائمة على المحولات التي تم تدريبها مسبقا، مثل Electra و Albert، للمهمة الإنجليزية و XLM-R لجميع المهام الأخرى. لتحسين أداء هذه الأنظمة، نقترح إضافة إشارة إلى الكلمة التي سيتم إزالتها وتزيد بياناتنا عن طريق انعكاس زوج الجملة. ونحن كذلك زيادة DataSet المقدمة إلينا مع WIC و XL-WIC و SEMCOR 3.0. باستخدام الكفر، نحقق أداء قويا في المهمة المتعددة اللغات، حيث وضعت أولا في المهام الفرعية EN-EN و FR-FR. بالنسبة للإعداد المتبادل، فإننا أعملنا بترجمة طرق اختبار وطريقة طلقة صفرية، باستخدام نماذجنا متعددة اللغات، مع الأداء الأخير بشكل أفضل قليلا.
يهدف هذا البحث إلى اقتراح طريقة لتحسين نتائج استرجاع المعلومات العربية دلالياً و ذلك بتلخيص النصوص تجريدياً (Abstractive Summary) باستخدام خوارزميات معالجة اللغات الطبيعية (NLP), حل غموض معاني الكلمات (WSD) و قياس التشابهية الدلالية (Semantic Si milarity) فيما بينها باستخدام الأنتولوجيا العربية Arabic WordNet.
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا