ترغب بنشر مسار تعليمي؟ اضغط هنا

دقة تحرير المعلومات متعددة اللغات مع التعليقات التوضيحية المنسقة

Multilingual Coreference Resolution with Harmonized Annotations

230   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

في هذه الورقة، نقدم تجارب حل النواة مع كورفوس كورفوس متعددة اللغات التي تم إنشاؤها حديثا (Nedoluzhko et al.، 2021).نحن نركز على اللغات التالية: التشيكية والروسية والبولندية والألمانية والإسبانية والكاتالونية.بالإضافة إلى التجارب أحادية الأحادية، نجمع بين بيانات التدريب في تجارب متعددة اللغات وتدريب نماذج متضررة - لغلق سلافية وللجميع اللغات معا.نحن نعتمد على نموذج التعلم العميق في نهاية إلى نهاية تتكيف قليلا مع Corefud Corpus.تظهر نتائجنا أنه يمكننا الاستفادة من التعليقات التوضيحية المنسقة، واستخدام النماذج الانضمام تساعد بشكل كبير على اللغات مع بيانات التدريب الأصغر.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

يمكن للمرء أن يجد العشرات من موارد البيانات لغات مختلفة بلغت coreference - وهي علاقة بين تعبيرين أو أكثر تشير إلى نفس كيان العالم الحقيقي - يتم تفاحيا يدويا.يمكن للمرء أن يفترض أيضا أن مثل هذه التعبيرات عادة ما تشكل وحدات ذات مغزى بلدية؛ومع ذلك، ذكر المشروح الذي تم تفجيحه ببساطة عن طريق تحديد فترات رمزية في معظم مشاريع كوراسة، أي بشكل مستقل عن أي تمثيل سنوي.نجادل بأنه قد يكون من المفيد جعل التعليقات التوضيحية النحوية والمباراة تقارب على المدى الطويل.نقدم دراسة تجريبية تجريبية تركز على التطابقات والخلط بين التدقيق الخطي المشروح باليد يمتد وألقي الأشجار النحوية تلقائيا التي تتبع اتفاقيات التبعيات العالمية.تغطي الدراسة 9 مجموعات بيانات لمدة 8 لغات مختلفة.
لقد ظهر التعلم الناقض كطريقة لتعلم التمثيل القوي ويسهل العديد من المهام المصب المختلفة خاصة عندما تكون البيانات الخاضعة للإشراف محدودة. كيفية بناء عينات مضاءة فعالة من خلال تكبير البيانات هي مفتاح نجاحها. على عكس مهام الرؤية، لم يتم التحقيق في طريقة تكبير البيانات للتعلم المتعاقل بما فيه الكفاية في مهام اللغة. في هذه الورقة، نقترح نهج رواية لبناء عينات صغيرة لمهام اللغة باستخدام تلخيص النص. نحن نستخدم هذه العينات للتعلم المتعاقل الخاضع للإشراف للحصول على تمثيلات نصية أفضل التي تنفصل إلى حد كبير مهام تصنيف النص بشراحي محدود. لمزيد من تحسين الطريقة، نخلط عينات من فئات مختلفة وإضافة تنظيم إضافي، يدعى Mixsum، بالإضافة إلى فقدان الانتروبيا. توضح التجارب في مجموعات بيانات تصنيف النص العالمي الحقيقي (Amazon-5، YELP-5، AG News، IMDB) فعالية إطار التعلم المقاوم للضبط المقترح مع تكبير البيانات القائمة على التلخصات وانتظام Mixsum.
الكيانات المتعلقة بالأحداث والأحداث في النص هي مكون رئيسي لفهم اللغة الطبيعية.دقة Coreference Coreference، على وجه الخصوص، أمر مهم بالنسبة للمصلحة المتزايدة بمهام تحليل المستندات متعددة الوثائق.في هذا العمل، نقترح نموذجا جديدا يمتد نموذج التنبؤ المتس لسل الفعال لتحليل Corefery لإعدادات تبادل المستندات وتحقق نتائج تنافسية لكلا كلا كلا كائن الكيان والحدث مع توفير أدلة قوية على فعالية كل من النماذج المتسلسلة والاستدلال المرتفعإعدادات الوثيقة عبر المستندات.يتطلب نموذجنا بشكل تدريجي يذكر في تمثيل الكتلة ويتوقع الروابط بين الإشارة والمجموعات التي تم إنشاؤها بالفعل، تقريب نموذج أعلى للترتيب.بالإضافة إلى ذلك، نقوم بإجراء دراسات بديلة الأزمة التي توفر رؤى جديدة في أهمية مختلف المدخلات وأنواع التمثيل في Courceer.
تغطية إعلامية لها تأثير كبير على التصور العام للأحداث. ومع ذلك، فإن وسائل الإعلام هي في كثير من الأحيان منحازة. طريقة واحدة إلى المقالات الإخبارية Bias هي تغيير اختيار الكلمة. يعد التعريف التلقائي للتحيز من خلال اختيار Word صعبة، ويرجع ذلك أساسا إلى عدم وجود مجموعة بيانات قياسية ذهبية وتبعية عالية السياق. تقدم هذه الورقة فاتنة، وهي مجموعة بيانات قوية ومتنوعة تم إنشاؤها بواسطة خبراء مدربين، بحثا عن أبحاث وسائل الإعلام. نحن نحلل أيضا سبب أهمية وضع العلامات الخبيرة ضمن هذا المجال. توفر مجموعة البيانات الخاصة بنا جودة توضيحية أفضل واتفاقية أعلى معلقا من العمل الحالي. وهي تتألف من 3700 جمل متوازنة بين الموضوعات والمنافذ، تحتوي على تسميات وسائل الإعلام على مستوى الكلمة ومستوى الجملة. بناء على بياناتنا، نقدم أيضا وسيلة للكشف عن الجمل التي تحفز التحيز في مقالات إخبارية تلقائيا. يتم تدريب أفضل ما لدينا من النموذج المستند في بيرت المدرب مسبقا على كوربوس أكبر يتكون من ملصقات بعيدة. قم بضبط وتقييم النموذج على مجموعة البيانات الخاضعة للإشراف المقترحة، ونحن نحقق درجة ماكرو F1 من 0.804، مما يتفوق على الأساليب الحالية.
ندرس مشكلة جديدة في التعلم عبر التحويلات المتبادلة لحدث القرار (ECR) حيث يتم تكييف النماذج المدربة على البيانات من لغة مصدر للتقييمات باللغات المستهدفة المختلفة. نقدم النموذج الأساسي الأول لهذه المهمة بناء على نموذج لغة XLM-Roberta، وهو نموذج لغوي مت عدد اللغات مسبقا. نحن نستكشف أيضا الشبكات العصبية اللغوية اللغوية (LANN) التي تتولى التمييز بين النصوص من المصدر واللغات المستهدفة لتحسين تعميم اللغة ل ECR. بالإضافة إلى ذلك، نقدم آليتين رواية لتعزيز التعلم التمثيلي العام ل LANN، والتي تتميز بما يلي: (1) محاذاة متعددة الرؤية لمعاقبة محاذاة التسمية العاصمة من Aquerence من الأمثلة في المصدر واللغات المستهدفة، و (2) النقل الأمثل إلى حدد أمثلة وثيقة في المصدر واللغات المستهدفة لتوفير إشارات تدريبية أفضل لتمييز اللغة. أخيرا، نقوم بإجراء تجارب مكثفة ل ECR عبر اللغات من الإنجليزية إلى الإسبانية والصينية لإظهار فعالية الأساليب المقترحة.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا