ينطوي نقل نمط النص على إعادة كتابة محتوى الجملة المصدر بأسلوب مستهدف.على الرغم من وجود عدد من المهام النمط مع البيانات المتاحة، فقد كانت هناك مناقشة منهجية محدودة حول كيفية توصيل مجموعات بيانات نمط النص مع بعضها البعض.ومع ذلك، من المحتمل أن يكون لهذا الفهم آثار على اختيار مصادر بيانات متعددة للتدريب على النماذج.في حين أنه من الحكمة النظر في خصائص أسلوبية متأصلة عند تحديد هذه العلاقات، يجب علينا أيضا التفكير في كيفية تحقيق النمط في مجموعة بيانات معينة.في هذه الورقة، نقوم بإجراء العديد من التحليلات التجريبية لمجموعات بيانات أسلوب النص الحالي.بناء على نتائجنا، نقترح تصنيف خصائص أسلوبية وموينة البيانات للنظر عند استخدام أو مقارنة مجموعات بيانات نمط النص.
Text style transfer involves rewriting the content of a source sentence in a target style. Despite there being a number of style tasks with available data, there has been limited systematic discussion of how text style datasets relate to each other. This understanding, however, is likely to have implications for selecting multiple data sources for model training. While it is prudent to consider inherent stylistic properties when determining these relationships, we also must consider how a style is realized in a particular dataset. In this paper, we conduct several empirical analyses of existing text style datasets. Based on our results, we propose a categorization of stylistic and dataset properties to consider when utilizing or comparing text style datasets.
References used
https://aclanthology.org/
Learning a good latent representation is essential for text style transfer, which generates a new sentence by changing the attributes of a given sentence while preserving its content. Most previous works adopt disentangled latent representation learn
Existing text style transfer (TST) methods rely on style classifiers to disentangle the text's content and style attributes for text style transfer. While the style classifier plays a critical role in existing TST methods, there is no known investiga
In most cases, the lack of parallel corpora makes it impossible to directly train supervised models for the text style transfer task. In this paper, we explore training algorithms that instead optimize reward functions that explicitly consider differ
Unsupervised style transfer models are mainly based on an inductive learning approach, which represents the style as embeddings, decoder parameters, or discriminator parameters and directly applies these general rules to the test cases. However, the
The style transfer task (here style is used in a broad authorial'' sense with many aspects including register, sentence structure, and vocabulary choice) takes text input and rewrites it in a specified target style preserving the meaning, but alterin