غالبا ما تظهر اللغة الطبيعية هيكل هرمي متأصل متأرجلا مع بناء جملة معقدة ودليل. ومع ذلك، تعلم معظم النماذج الإدارية العميقة في أحدث تضمينها فقط في مساحة ناقلات Euclidean، دون محاسبة هذه الملكية الهيكلية للغة. في هذه الورقة، نحقق في جيل النص في مساحة كامنة ضئيلة لتعلم التمثيلات الهرمية المستمرة. يتم تقديم AutoNECODER AUTONICODER AUTONCODER (APO-VAE)، حيث يتم تعريف كل من الخلفية السابقة والتنتهي من المتغيرات الكامنة عبر كرة شاذة عبر التوزيعات العادية ملفوفة. من خلال اعتماد الصيغة البدائية المزدوجة لمخلاص Kullback-Leibler، يتم تقديم إجراء تعلم الخصم لتمكين التدريب النموذجي القوي. توضح تجارب واسعة النمذجة في النمذجة اللغوية ونقل النمط غير المعقول وتوليد استجابة الحوار فعالية نموذج APO-VAE المقترح على VAES في الفضاء الكامن Euclidean، وذلك بفضل قدراته الرائعة في التقاط التسلسلات الهرمية للغة الكامنة في الفضاء القطعي.
Natural language often exhibits inherent hierarchical structure ingrained with complex syntax and semantics. However, most state-of-the-art deep generative models learn embeddings only in Euclidean vector space, without accounting for this structural property of language. In this paper, we investigate text generation in a hyperbolic latent space to learn continuous hierarchical representations. An Adversarial Poincare Variational Autoencoder (APo-VAE) is presented, where both the prior and variational posterior of latent variables are defined over a Poincare ball via wrapped normal distributions. By adopting the primal-dual formulation of Kullback-Leibler divergence, an adversarial learning procedure is introduced to empower robust model training. Extensive experiments in language modeling, unaligned style transfer, and dialog-response generation demonstrate the effectiveness of the proposed APo-VAE model over VAEs in Euclidean latent space, thanks to its superb capabilities in capturing latent language hierarchies in hyperbolic space.
References used
https://aclanthology.org/
We propose neural models to generate text from formal meaning representations based on Discourse Representation Structures (DRSs). DRSs are document-level representations which encode rich semantic detail pertaining to rhetorical relations, presuppos
We present an end-to-end neural approach to generate English sentences from formal meaning representations, Discourse Representation Structures (DRSs). We use a rather standard bi-LSTM sequence-to-sequence model, work with a linearized DRS input repr
Recent successes in deep generative modeling have led to significant advances in natural language generation (NLG). Incorporating entities into neural generation models has demonstrated great improvements by assisting to infer the summary topic and t
Few-shot table-to-text generation is a task of composing fluent and faithful sentences to convey table content using limited data. Despite many efforts having been made towards generating impressive fluent sentences by fine-tuning powerful pre-traine
Providing pretrained language models with simple task descriptions in natural language enables them to solve some tasks in a fully unsupervised fashion. Moreover, when combined with regular learning from examples, this idea yields impressive few-shot