ترغب بنشر مسار تعليمي؟ اضغط هنا

غرامة الكتابة الجميلة للكيانات الناشئة في المدونات الصغيرة

Fine-grained Typing of Emerging Entities in Microblogs

298   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

تحليل المدونات الصغيرة حيث ننشر ما نقوم بتمكيننا من أداء تطبيقات مختلفة مثل تحليل الاتجاه الاجتماعي وتوصية الكيان. لتتبع الاتجاهات الناشئة في مجموعة متنوعة من المجالات، نريد تصنيف المعلومات عن الكيانات الناشئة (على سبيل المثال، الصورة الرمزية 2) في منشورات المدونات الصغيرة وفقا لأنواعها (على سبيل المثال، فيلم). وبالتالي، فإننا نقدم مهمة جديدة للكتابة كيان تقوم بتعيين نوعا غرامة على كل كيان ناشئ عند إجراء انفجار من المشاركات التي تحتوي على هذا الكيان لأول مرة في المدونات الصغيرة. التحدي هو إجراء الكتابة من منشورات المدونات الصغيرة الصاخبة دون الاعتماد على المعرفة السابقة للكيان المستهدف. لمعالجة هذه المهمة، نبني مجموعات بيانات Twitter واسعة النطاق للغة الإنجليزية واليابانية باستخدام الإشراف البعيد الحساسة للوقت. ثم نقترح نموذج الكتابة العصبي المعياري الذي لا ينفدي فقط الكيان وسياقاته ولكن أيضا معلومات المعتوه في مشاركات متعددة. لكتابة الكيانات الناشئة "الكتاني" تعني لغة البرمجة الناشئة ولعبة الألواح الكلاسيكية)، والسياقات الكلاسيكية صاخبة، ونطير محدد سياق يجد سياقات ذات صلة للكيان الهدف. تؤكد التجارب على مجموعات البيانات Twitter فعالية نموذج الكتابة لدينا ومنح السياق.



المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

تستند نهج كتابة الكيانات التقليدية إلى نماذج تصنيف مستقلة، مما يجعلها من الصعب التعرف على أنواع الكيان المعتمدة والذات طويل الذيل والحبوب. في هذه الورقة، نجادل بأن التبعيات الخارجية والمترنوية المتطودة ضمنيا بين الملصقات يمكن أن توفر معرفة حاسمة لمعا لجة التحديات المذكورة أعلاه. تحقيقا لهذه الغاية، نقترح شبكة تسمية الملصقات (LRN)، والتي الأسباب التسلل تسميات الكيانات الجميلة من خلال اكتشاف واستغلال المعرفة التبعيات الملصقات المتاحة في البيانات. على وجه التحديد، تستخدم LRN شبكة التراجع التلقائي لإجراء منطق استنتاجي ورسم رسمي من السمة الحيوية لإجراء منطق حثي بين الملصقات، والتي يمكن أن تكفذ بشكل فعال، وتعلم وسبب تبعيات التسمية المعقدة في مجموعة تسلسل إلى مجموعة، ونهاية إلى نهاية وبعد تظهر التجارب أن LRN تحقق الأداء الحديثة على معايير كيانات كيانات فائقة الفيرلة القياسية، ويمكن أيضا حل مشكلة تسمية الذيل الطويل بشكل فعال.
يعمل العمل الحالي على كتابة كيان غرامة (FET) عادة النماذج التلقائية على مجموعات البيانات التي تم الحصول عليها باستخدام قواعد المعرفة (KB) كشراف بعيد.ومع ذلك، فإن الاعتماد على KB يعني أنه يمكن إعاقة هذا الإعداد التدريبي من خلال عدم وجود أو عدم انتظام KB.لتخفيف هذا القيد، نقترح إعدادا جديدا لتدريب نماذج FET: FET دون الوصول إلى أي قاعدة معارف.بموجب هذا الإعداد، نقترح إطار من خطوتين لتدريب نماذج FET.في الخطوة الأولى، نقوم تلقائيا بإنشاء بيانات زائفة مع ملصقات ممتعة من مجموعة بيانات كبيرة غير مسبوقة.ثم يتم تدريب نموذج شبكة عصبي بناء على البيانات الزائفة، إما بطريقة غير مخالفة أو استخدام التدريب الذاتي بموجب الإرشادات الضعيفة من نموذج التعرف على الكيان الحبيبة الخشنة (NER).تظهر النتائج التجريبية أن طريقتنا تحقق أداء تنافسي فيما يتعلق بالنماذج المدربة على مجموعات البيانات ذات الإشراف على KB الأصلي.
غالبا ما يتطلب تدريب نماذج NLP كميات كبيرة من بيانات التدريب المسمى، مما يجعل من الصعب توسيع النماذج الحالية لغات جديدة.في حين تعتمد Transfer-Transfer عبر اللغات الصفرية على تضييق كلمة متعددة اللغات لتطبيق نموذج تدرب على لغة واحدة لآخر، فإن Yarowski و Ngai (2001) يقترح طريقة الإسقاط التوضيحي لتوليد بيانات التدريب دون شرح يدوي.تم استخدام هذه الطريقة بنجاح مهام التعرف على الكيان المسمى وكتابة الكيان الخشن الخشبي، لكننا نظهر أنه من غير متوقع من قبل النقل الصفرية عبر اللغات عند تطبيقها على مهمة مماثلة لكتابة الكيان المحبوس.في دراستنا لطبقتها الجميلة للكتابة من نوع الغش في علم الأطباق الألمانية بالنسبة للألمانية، نظهر أن الإسقاط التوضيحي يضخم ميل النموذج الإنجليزي إلى تسميات المستوى 2 المستويات والضرب عن طريق النقل الصفرية عبر اللغات على ثلاثة مجموعات اختبار رواية.
التغطية الواسعة التي تعني تعني التمثيلات في NLP التركيز في الغالب على المحتوى المعبر عنه صراحة. والأهم من ذلك أن ندرة مجموعات البيانات التلقائية للأدوار الضمنية المتنوعة يحد من الدراسات التجريبية في الدقوق اللغوي. على سبيل المثال، في مراجعة الويب خدم ة رائعة! ''، المزود والمستهلك حجج ضمنية لأنواع مختلفة. نحن ندرس وجعة مشروحة من الحجج الضمنية الضمنية الجميلة (CUI و Hershcovich، 2020) من خلال إعادة النظر في ذلك بعناية، وحل العديد من التناقضات. في وقت لاحق، نقدم أول محلل عصبي يستند إلى الانتقال يمكن أن يتعامل مع الحجج الضمنية بشكل حيوي، وتجربة نظاميين انتقالين مختلفين على مجموعة بيانات محسنة. نجد أن أنواع معينة من الوسائط الضمنية أكثر صعوبة من غيرها من غيرها وأن النظام الأكثر دقة أكثر دقة في استرداد الوسائط الضمنية، على الرغم من وجود نقاط تحليل إجمالية أقل، مما يشهد قيود التفكير الحالية لنماذج NLP. سيسهل هذا العمل فهم أفضل للغة الضمنية والكشفية، من خلال دمجها بشكل كلي في تمثيلات المعنى.
على الرغم من أن نماذج التدريب المسبق قد حققت نجاحا كبيرا في توليد الحوار، إلا أن أدائها ينخفض ​​بشكل كبير عندما يحتوي المدخلات على كيان لا يظهر في مجموعات بيانات ما قبل التدريب والضبط (كيان غير مرئي). لمعالجة هذه المشكلة، تستفيد الأساليب الحالية لقاع دة المعرفة الخارجية لتوليد الاستجابات المناسبة. في العالم الحقيقي العملي، قد لا يتم تضمين الكيان من قبل قاعدة المعارف أو تعاني من دقة استرجاع المعرفة. للتعامل مع هذه المشكلة، بدلا من إدخال قاعدة المعرفة كإدخال، نقوم بإجبار النموذج على تعلم التمثيل الدلالي الأفضل من خلال التنبؤ بالمعلومات في قاعدة المعرفة، فقط بناء على سياق الإدخال. على وجه التحديد، بمساعدة قاعدة المعرفة، نقدم هدفين تدريبين مساعدين: 1) تفسير الكلمة الملثمين، والتي تخنق معنى الكيان الملثمين بالنظر إلى السياق؛ 2) توليد Hypernym، الذي يتنبأ فرق الكيان بناء على السياق. نتائج التجربة على اثنين من الحوار كوربوس تحقق من فعالية أساليبنا تحت كلا المعرفة والإعدادات المتاحة وغير متوفرة.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا