ترغب بنشر مسار تعليمي؟ اضغط هنا

أفلاطون كاج: محادثة المعرفة غير المعرفة عبر النمذجة المشتركة

PLATO-KAG: Unsupervised Knowledge-Grounded Conversation via Joint Modeling

228   0   0   0.0 ( 0 )
 تاريخ النشر 2021
  مجال البحث الذكاء الاصناعي
والبحث باللغة English
 تمت اﻹضافة من قبل Shamra Editor




اسأل ChatGPT حول البحث

تتحول نماذج المحادثة واسعة النطاق إلى الاستفادة من المعرفة الخارجية لتحسين الدقة الواقعية في توليد الاستجابة.بالنظر إلى عدم التعليق على المعرفة الخارجية لعوريا الحوار واسعة النطاق، من المستحسن معرفة اختيار المعرفة وتوليد الاستجابة بطريقة غير منشأة.في هذه الورقة، نقترح أفلاطون كاج (توليد المعرفة المعزز)، ونهج تعليمي غير مخطط له لنمذجة المحادثة المحفوظة على المعرفة الطرفية.لكل سياق حوار، يتم اختيار عناصر المعرفة ذات الصلة من الأعلى وبعد ذلك في توليد الاستجابة المدرجة في المعرفة.يتم تحسين مكونين اختيار المعرفة وتوليد الاستجابة بشكل مشترك وفعال تحت هدف متوازن.النتائج التجريبية على اثنين من مجموعات البيانات المتاحة للجمهور التحقق من تفوق أفلاطون كاج.

المراجع المستخدمة
https://aclanthology.org/
قيم البحث

اقرأ أيضاً

توليد الاستجابات الإعلامية والمناسبة صعبة ولكنها مهمة لبناء أنظمة الحوار يشبه الإنسان. على الرغم من أن نماذج المحادثة المختلفة المعرفة قد اقترحت، إلا أن هذه النماذج لها قيود في الاستفادة من المعرفة التي تحدث بشكل غير منتظم في بيانات التدريب، ناهيك عن دمج المعرفة غير المرئية في جيل المحادثة. في هذه الورقة، نقترح طريقة تعلم التمثيل المتعصب للكيان (EARL) لإدخال الرسوم البيانية المعرفة لتوليد المحادثة بالمعلومات. على عكس الأساليب التقليدية التي تقترب المعلمة التمثيل المحدد لكل كيان، فإن إيرل يستخدم سياق المحادثات والهيكل العلائقي لرسوم البيان البيئية لمعرفة تمثيل الفئة للكيانات، المعمم لإدماج كيانات غير مرئية في الرسوم البيانية المعرفة في جيل المحادثة. التقييمات التلقائية واليدوية توضح أن طرازنا يمكن أن يولد ردود أكثر إعلامية ومتماسكة وغير طبيعية من النماذج الأساسية.
محادثة Deventangle تهدف إلى فصل الرسائل المتداخلة إلى جلسات منفصلة، ​​وهي مهمة أساسية في فهم المحادثات متعددة الأحزاب. يعتمد العمل الحالي في محادثة DEVENTANGLEMELE بشكل كبير على مجموعات البيانات المشروح البشرية، وهي مكلفة للحصول عليها في الممارسة الع ملية. في هذا العمل، نستكشف تدريب نموذج محادثة محادثة دون الرجوع إلى أي شروح بشرية. تم بناء طريقتنا على خوارزمية التدريب العميق، والتي تتكون من شبكات اثنين من الشبكات العصبية: مصنف رسالة للزوج وفيديو الجلسة. السابق هو المسؤول عن استرجاع العلاقات المحلية بين رسالتين بينما يقتصر الأخير رسالة إلى جلسة من خلال التقاط معلومات السياق. يتم تهيئة كلتا الشبكتين على التوالي مع بيانات زائفة مبنية من Corpus غير المخلفات. خلال عملية التدريب التعويضي العميق، نستخدم مصنف الجلسة كمكون تعليمي للتعزيز لتعلم جلسة تعيين سياسة من خلال تعظيم المكافآت المحلية التي قدمها مصنف زوج الرسائل. بالنسبة إلى مصنف زوج الرسائل، فإننا نشعر بإثراء بيانات التدريب الخاصة بها عن طريق استرداد أزواج الرسائل بثقة عالية من جلسات DESTANGLED المتوقعة من قبل مصنف الجلسة. النتائج التجريبية على مجموعة بيانات حوار السينما الكبيرة تثبت أن نهجنا المقترح يحقق أداء تنافسي مقارنة بالأساليب الخاضعة للإشراف السابقة. تشير المزيد من التجارب إلى أن محادثات الإعصابات المتوقعة يمكن أن تعزز الأداء على المهمة المصب لمختيار استجابة متعددة الأحزاب.
تعد بيانات المعرفة هائلة وواسعة الانتشار في العالم الحقيقي، والتي يمكن أن تكون بمثابة مصادر خارجية جيدة لإثراء المحادثات. ومع ذلك، في محادثات المعرفة، لا تزال النماذج الحالية تفتقر إلى السيطرة الجميلة على اختيار المعرفة والتكامل مع الحوارات، والتي تؤ دي أخيرا إلى مشاكل توليد الاستجابة غير ذات الصلة المعرفة: 1) اختيار المعرفة يعتمد فقط على سياق الحوار، وتجاهل انتقالات المعرفة المتأصلة جنبا إلى جنب مع تدفقات المحادثة؛ 2) غالبا ما تناسب النماذج أثناء التدريب، مما يؤدي إلى استجابة غير متماسكة من خلال الإشارة إلى الرموز غير المرتبطة من محتوى المعرفة المحددة في مرحلة الاختبار؛ 3) على الرغم من أن الاستجابة يتم إنشاؤها على تاريخ الحوار والمعرفة، إلا أن النماذج غالبا ما تميل إلى التغاضي عن المعرفة المحددة، وبالتالي يولد استجابة المعرفة غير ذات الصلة. لمعالجة هذه المشكلات، اقترحنا نموذجي صراحة انتقال المعرفة في محادثات متعددة الدورانية المتسلسلة عن طريق تجريد المعرفة إلى علامات موضوعية. بالإضافة إلى ذلك، لاستخدام المعرفة المختارة بالكامل في عملية التوليد، نقترح ما قبل التدريب مولد الاستجابة على علم المعرفة لدفع المزيد من الاهتمام على المعرفة المحددة. على وجه الخصوص، يقوم نموذج انتقال المعرفة المتسلسل المزود بمولد استجابة مدروس مدرسي مسبقا (SKT-KG) بتصوير انتقال المعرفة الرفيع المستوى ويستخدم بالكامل بيانات المعرفة المحدودة. تشير النتائج التجريبية على كل من معايير الحوار المنظم وغير المنظمة إلى المعرفة المعرفة إلى أن نموذجنا يحقق أداء أفضل على النماذج الأساسية.
نحن نقدم Graformer، وهي عبارة عن بنية ترميز ترميز ترميز محول المبالية على أساس الرسوم البيانية إلى النص.مع انتباهنا عن الرسوم البيانية لروايتنا، يعتمد ترميز العقدة على جميع العقد في الرسم البياني للإدخال - ليس فقط الجيران المباشر - يسهل اكتشاف أنماط عالمية.نحن نمثل العلاقة بين العقدتين كطابع أقصر المسار بينهما.يتعلم Graformer الوزن هذه العلاقات العقدة العقدة بشكل مختلف عن رؤوس اهتمام مختلفة، وبالتالي تعلم وجهات نظر متصلة بشكل مختلف عن الرسم البياني للإدخال.نقوم بتقييم GRAFORMER على اثنين من المعايير الشهيرة في الرسم البياني إلى النص، وجدول الأعمال و Webnlg، حيث يحقق أداء قوي أثناء استخدام العديد من المعلمات أقل من الأساليب الأخرى.
توضح طبيعة عدم وجود كلمة أو انعكاس كلمة يمكن أن تشير إلى حدود القطاع أو دلالات الكلمة من صعوبة فهم النص الصيني، كما تكثف الطلب على المعرفة الدلالية على مستوى الكلمات لإنجاز هدف وضع العلامات في مهام التجزئة والصينية. ومع ذلك، بالنسبة لمهام تجزئة المجا ل الصيني والعلامات الصينية غير الخاضعة للرقابة، يعاني النموذج المدرب على المجال المصدر بشكل متكرر من المعرفة الدلالية ذات مستوى الكلمة الناقص بالمجال المستهدف. لمعالجة هذه المشكلة، نقترح نموذجا جديدا يعتمد على تكبير الانتباه لإدخال معرفة كبيرة عبر المجال عبر نظام الترجمة. تتيح النموذج المقترح الانتباه النموذجي إلى رسم المعرفة عبر المجال المشار إليها بواسطة المحاذاة المتبادلة على مستوى الكلمات الضمنية بين المدخلات والترجمة المقابلة لها. بصرف النظر عن النموذج الذي يتطلب الإدخال عبر اللغات، فإننا نؤسس أيضا نموذجا خارج الرف الذي يهرب من الاعتماد على الترجمات عبر اللغات. توضح التجارب أن اقتراحنا يتقدم بدرجة كبيرة نتائج أحدث النتائج من مجزأة الصينية المجال ومهام وضع العلامات.

الأسئلة المقترحة

التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا