ترجمة المخطط هي مهمة ترجمة رؤوس البيانات الجدولية تلقائيا من لغة إلى أخرى. تلعب ترجمة المخطط عالية الجودة دورا مهما في البحث عبر الجدول عبر اللغات والتفاهم والتحليل. على الرغم من أهميتها، فإن ترجمة المخطط ليست مدروسة بشكل جيد في المجتمع، ولا يمكن أن تعمل نماذج الترجمة الآلية العصبية في هذه المهمة بشكل جيد في هذه المهمة بسبب اختلافات جوهرتين بين النص العادي والبيانات الجدولة: الفرق المورفولوجي وفرق السياق. لتسهيل الدراسة البحثية، نبني أول مجموعة بيانات متوازية للترجمة المخطط، والتي تتكون من 3،158 طاولة مع 11،979 رئيس مكتوبة في 6 لغات مختلفة، بما في ذلك الإنجليزية والصينية والفرنسية والألمانية والإسبانية واليابانية. أيضا، نقترح نموذج الترجمة المخطط الأول يسمى EAST، وهو نموذج الترجمة العصبي للرأس المعزز مع سياق المخطط. على وجه التحديد، نقوم بالنماذج رأسا مستهدف وسياقه كشركة بيانية موجهة لتمثيل أنواع كيانها وعلاقاتها. ثم يلقي يرميز الرسم البياني مع محول علمي عليري ويستخدم محول آخر لفك تشفير رأس اللغة الهدف. توضح التجارب في مجموعة بياناتنا التي توضح بشكل كبير من نماذج الترجمة الآلية العصبية لحالة الأحوال العصبية. سيتم إصدار DataSet لدينا في https://github.com/microsoft/contextualsp.
Schema translation is the task of automatically translating headers of tabular data from one language to another. High-quality schema translation plays an important role in cross-lingual table searching, understanding and analysis. Despite its importance, schema translation is not well studied in the community, and state-of-the-art neural machine translation models cannot work well on this task because of two intrinsic differences between plain text and tabular data: morphological difference and context difference. To facilitate the research study, we construct the first parallel dataset for schema translation, which consists of 3,158 tables with 11,979 headers written in 6 different languages, including English, Chinese, French, German, Spanish, and Japanese. Also, we propose the first schema translation model called CAST, which is a header-to-header neural machine translation model augmented with schema context. Specifically, we model a target header and its context as a directed graph to represent their entity types and relations. Then CAST encodes the graph with a relational-aware transformer and uses another transformer to decode the header in the target language. Experiments on our dataset demonstrate that CAST significantly outperforms state-of-the-art neural machine translation models. Our dataset will be released at https://github.com/microsoft/ContextualSP.
References used
https://aclanthology.org/
Existing work on tabular representation-learning jointly models tables and associated text using self-supervised objective functions derived from pretrained language models such as BERT. While this joint pretraining improves tasks involving paired ta
Data augmentation, which refers to manipulating the inputs (e.g., adding random noise,masking specific parts) to enlarge the dataset,has been widely adopted in machine learning. Most data augmentation techniques operate on a single input, which limit
We propose a data augmentation method for neural machine translation. It works by interpreting language models and phrasal alignment causally. Specifically, it creates augmented parallel translation corpora by generating (path-specific) counterfactua
Sign language translation (SLT) is often decomposed into video-to-gloss recognition and gloss to-text translation, where a gloss is a sequence of transcribed spoken-language words in the order in which they are signed. We focus here on gloss-to-text
In this paper, we investigate the driving factors behind concatenation, a simple but effective data augmentation method for low-resource neural machine translation. Our experiments suggest that discourse context is unlikely the cause for concatenatio