تهدف التحليل الدلالي القائم على الرسم البياني إلى تمثيل معنى نصي من خلال الرسوم البيانية الموجهة. باعتبارها واحدة من أكثر تمثيلات المعنى الواعدة في مجال الأغراض العامة، اكتسبت هذه الهياكل وتحليلها زخما فائدة كبير خلال السنوات الأخيرة، مع اقتراح عدة شكليات متنوعة. ومع ذلك، بسبب هذا التجانس للغاية، ركز معظم الجهود البحثية بشكل أساسي على الحلول الخاصة بإشعاج معين. في هذا العمل، بدلا من ذلك، نقوم بإعادة صياغة التحليل الدلالي نحو شكليات متعددة لأن الترجمة الآلية العصبية متعددة اللغات (MNMT)، واقتراح SGL، وهي عبارة عن هندسة SCL، وهي عبارة عن مورد SEQ2SEQ متعدد الاستخدامات تدربت بهدف MNMT. مدعومة بالعديد من التجارب، نظير على أن هذا الإطار فعال بالفعل بمجرد تعزيز إجراءات التعلم مع شركة فورانيا المتوازية الكبيرة القادمة من الترجمة الآلية: نحن نبلغ عن عروض تنافسية على تحليل AMR و UCCA، خاصة بمجرد إقرانها مع الهندسة المعمارية المدربة مسبقا. علاوة على ذلك، نجد أن النماذج المدربة تحت مقياس التكوين جيدا بشكل ملحوظ إلى مهام مثل تحليل AMR عبر اللغات: تفوق SGL على جميع منافسها الهامش الكبير دون رؤية أمثلة غير الإنجليزية غير الإنجليزية في وقت التدريب في وقت التدريب، وبمجرد هذه الأمثلة يتم تضمين أيضا، يحدد حالة غير مسبوقة من الفن في هذه المهمة. نطلق سردنا ونماذجنا لأغراض البحث في https://github.com/sapienzanlp/sgl.
Graph-based semantic parsing aims to represent textual meaning through directed graphs. As one of the most promising general-purpose meaning representations, these structures and their parsing have gained a significant interest momentum during recent years, with several diverse formalisms being proposed. Yet, owing to this very heterogeneity, most of the research effort has focused mainly on solutions specific to a given formalism. In this work, instead, we reframe semantic parsing towards multiple formalisms as Multilingual Neural Machine Translation (MNMT), and propose SGL, a many-to-many seq2seq architecture trained with an MNMT objective. Backed by several experiments, we show that this framework is indeed effective once the learning procedure is enhanced with large parallel corpora coming from Machine Translation: we report competitive performances on AMR and UCCA parsing, especially once paired with pre-trained architectures. Furthermore, we find that models trained under this configuration scale remarkably well to tasks such as cross-lingual AMR parsing: SGL outperforms all its competitors by a large margin without even explicitly seeing non-English to AMR examples at training time and, once these examples are included as well, sets an unprecedented state of the art in this task. We release our code and our models for research purposes at https://github.com/SapienzaNLP/sgl.
References used
https://aclanthology.org/
AM dependency parsing is a method for neural semantic graph parsing that exploits the principle of compositionality. While AM dependency parsers have been shown to be fast and accurate across several graphbanks, they require explicit annotations of t
Can pre-trained BERT for one language and GPT for another be glued together to translate texts? Self-supervised training using only monolingual data has led to the success of pre-trained (masked) language models in many NLP tasks. However, directly c
The dominant paradigm for semantic parsing in recent years is to formulate parsing as a sequence-to-sequence task, generating predictions with auto-regressive sequence decoders. In this work, we explore an alternative paradigm. We formulate semantic
This paper describes TenTrans' submission to WMT21 Multilingual Low-Resource Translation shared task for the Romance language pairs. This task focuses on improving translation quality from Catalan to Occitan, Romanian and Italian, with the assistance
Frame semantic parsing is a semantic analysis task based on FrameNet which has received great attention recently. The task usually involves three subtasks sequentially: (1) target identification, (2) frame classification and (3) semantic role labelin