تهدف التحليل الدلالي القائم على الرسم البياني إلى تمثيل معنى نصي من خلال الرسوم البيانية الموجهة. باعتبارها واحدة من أكثر تمثيلات المعنى الواعدة في مجال الأغراض العامة، اكتسبت هذه الهياكل وتحليلها زخما فائدة كبير خلال السنوات الأخيرة، مع اقتراح عدة شكليات متنوعة. ومع ذلك، بسبب هذا التجانس للغاية، ركز معظم الجهود البحثية بشكل أساسي على الحلول الخاصة بإشعاج معين. في هذا العمل، بدلا من ذلك، نقوم بإعادة صياغة التحليل الدلالي نحو شكليات متعددة لأن الترجمة الآلية العصبية متعددة اللغات (MNMT)، واقتراح SGL، وهي عبارة عن هندسة SCL، وهي عبارة عن مورد SEQ2SEQ متعدد الاستخدامات تدربت بهدف MNMT. مدعومة بالعديد من التجارب، نظير على أن هذا الإطار فعال بالفعل بمجرد تعزيز إجراءات التعلم مع شركة فورانيا المتوازية الكبيرة القادمة من الترجمة الآلية: نحن نبلغ عن عروض تنافسية على تحليل AMR و UCCA، خاصة بمجرد إقرانها مع الهندسة المعمارية المدربة مسبقا. علاوة على ذلك، نجد أن النماذج المدربة تحت مقياس التكوين جيدا بشكل ملحوظ إلى مهام مثل تحليل AMR عبر اللغات: تفوق SGL على جميع منافسها الهامش الكبير دون رؤية أمثلة غير الإنجليزية غير الإنجليزية في وقت التدريب في وقت التدريب، وبمجرد هذه الأمثلة يتم تضمين أيضا، يحدد حالة غير مسبوقة من الفن في هذه المهمة. نطلق سردنا ونماذجنا لأغراض البحث في https://github.com/sapienzanlp/sgl.
Graph-based semantic parsing aims to represent textual meaning through directed graphs. As one of the most promising general-purpose meaning representations, these structures and their parsing have gained a significant interest momentum during recent years, with several diverse formalisms being proposed. Yet, owing to this very heterogeneity, most of the research effort has focused mainly on solutions specific to a given formalism. In this work, instead, we reframe semantic parsing towards multiple formalisms as Multilingual Neural Machine Translation (MNMT), and propose SGL, a many-to-many seq2seq architecture trained with an MNMT objective. Backed by several experiments, we show that this framework is indeed effective once the learning procedure is enhanced with large parallel corpora coming from Machine Translation: we report competitive performances on AMR and UCCA parsing, especially once paired with pre-trained architectures. Furthermore, we find that models trained under this configuration scale remarkably well to tasks such as cross-lingual AMR parsing: SGL outperforms all its competitors by a large margin without even explicitly seeing non-English to AMR examples at training time and, once these examples are included as well, sets an unprecedented state of the art in this task. We release our code and our models for research purposes at https://github.com/SapienzaNLP/sgl.
المراجع المستخدمة
https://aclanthology.org/