ترغب بنشر مسار تعليمي؟ اضغط هنا

تم دراسة ضغط الجملة (SC)، التي تهدف إلى تقصير الأحكام مع الاحتفاظ بكلمات مهمة تعبر عن المعاني الأساسية، لسنوات عديدة في العديد من اللغات، خاصة باللغة الإنجليزية. ومع ذلك، فإن التحسينات في مهمة SC الصينية لا تزال قليلة جدا بسبب العديد من الصعوبات: ناد رة من كوربورا الموازية، وتحبيب تجزئة مختلفة من الجمل الصينية، والأداء غير الكامل للتحليلات النحوية. علاوة على ذلك، تم التحقيق في نماذج SC الصينية بأكملها حتى الآن. في هذا العمل، نبني مجموعة بيانات SC من الجمل العامية الصينية من نظام الإجابة على مدى واقعية في مجال الاتصالات السلكية واللاسلكية، ثم نقترح نموذج صيني عصبي SC معزز مع خريطة تنظيم ذاتية (SOM-NCSCM)، إلى احصل على رؤية قيمة من البيانات وتحسين أداء نموذج SC الصيني العصبي بأكمله بطريقة صالحة. تظهر النتائج التجريبية أننا يمكن أن تستفيد بشكل كبير من التحقيق العميق في التشابه بين البيانات، وتحقيق درجة F1 واعدة قدرها 89.655 وفرز Bleu4 البالغة 70.116، والتي توفر أيضا خط أساس لمزيد من الأبحاث حول مهمة SC الصينية.
تهدف استخراج العلاقات القائم على الحوار (إعادة) إلى استخراج العلاقة بين الحججتين التي تظهر في حوار. نظرا لأن الحوارات لديها خصائص حوادث الضمير الشخصية العالية وكثافة المعلومات المنخفضة، وبما أن معظم الحقائق العلائقية في الحوارات لا تدعمها أي جملة واح دة، فإن استخراج العلاقات القائمة على الحوار يتطلب فهم شامل للحوار. في هذه الورقة، نقترح Network Network Commany Commany Computal Network (Tucore-GCN) على غرار الاهتمام بالطريقة التي يفهم بها الناس الحوارات. بالإضافة إلى ذلك، نقترح نهج رواية يعامل مهمة الاعتراف بالمحادثات في المحادثات (ERC) كإعادة حوار قائما. تثبت التجارب في DataSet مقصورة الحوار وثلاث مجموعات بيانات ERC أن طرازنا فعال للغاية في مهام فهم اللغة الطبيعية القائمة على الحوار. في هذه التجارب، تتفوق Tucore-GCN على النماذج الحديثة على معظم مجموعات البيانات القياسية. يتوفر الكود الخاص بنا في https://github.com/blacknoodle/tucore-gcn.
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا