وقد ركز العمل الحديث على الجيل العام متعدد اللغات من AMR إلى النص بشكل حصري على استراتيجيات تكبير البيانات التي تستخدم AMR الفضي.ومع ذلك، فإن هذا يفترض جودة عالية من الأمراض العامية التي تم إنشاؤها، مما يحتمل على الحد من قابلية النقل إلى المهمة المستهدفة.في هذه الورقة، نحقق في تقنيات مختلفة لتوليد التعليقات التوضيحية AMR تلقائيا، حيث نهدف إلى دراسة مصدر المعلومات الذي ينتج عنه نتائج متعددة اللغات بشكل أفضل.نماذجنا المدربة على الذهب القديمة مع الجمل الفضية (مترجمة) الجمل تفوقت النهج التي تولدها Silver AMR.نجد أن الجمع بين كل من المصادر التكميلية للمعلومات تعمل على تحسين جيل عام عمرو متعدد اللغات.تتجاوز نماذجنا الحالة السابقة للفن الألمانية والإيطالية والإسبانية والصينية من هامش كبير.
Recent work on multilingual AMR-to-text generation has exclusively focused on data augmentation strategies that utilize silver AMR. However, this assumes a high quality of generated AMRs, potentially limiting the transferability to the target task. In this paper, we investigate different techniques for automatically generating AMR annotations, where we aim to study which source of information yields better multilingual results. Our models trained on gold AMR with silver (machine translated) sentences outperform approaches which leverage generated silver AMR. We find that combining both complementary sources of information further improves multilingual AMR-to-text generation. Our models surpass the previous state of the art for German, Italian, Spanish, and Chinese by a large margin.
References used
https://aclanthology.org/
We motivate and propose a suite of simple but effective improvements for concept-to-text generation called SAPPHIRE: Set Augmentation and Post-hoc PHrase Infilling and REcombination. We demonstrate their effectiveness on generative commonsense reason
Reference-based automatic evaluation metrics are notoriously limited for NLG due to their inability to fully capture the range of possible outputs. We examine a referenceless alternative: evaluating the adequacy of English sentences generated from Ab
India is one of the richest language hubs on the earth and is very diverse and multilingual. But apart from a few Indian languages, most of them are still considered to be resource poor. Since most of the NLP techniques either require linguistic know
The recent Text-to-Text Transfer Transformer'' (T5) leveraged a unified text-to-text format and scale to attain state-of-the-art results on a wide variety of English-language NLP tasks. In this paper, we introduce mT5, a multilingual variant of T5 th
Lacking sufficient human-annotated data is one main challenge for abstract meaning representation (AMR) parsing. To alleviate this problem, previous works usually make use of silver data or pre-trained language models. In particular, one recent seq-t