أصبحت تمثيلات ناقلات عنصر مركزي في نمذجة اللغة الدلالية، مما يؤدي إلى التداخل الرياضي مع العديد من الحقول بما في ذلك النظرية الكمومية. التركيز هو الهدف الأساسي لهذه التمثيل: تمثيل تمثيلات مع الرطب "والأسماك"، كيف ينبغي تمثيل مفهوم السمك الرطب؟ يستطلع ورقة الموضع هذه هذه السؤال من نقطتين من الرأي. الأول يعتبر أول سؤال حول ما إذا كان يمكن أن ينجح التمثيل الرياضي الصريح باستخدام الأدوات فقط من داخل الجبر الخطي، أو ما إذا كانت هناك حاجة إلى أدوات رياضية أخرى. والثاني تعتبر ما إذا كان ينبغي وصف تكوين ناقلات دلالي بصراحة رياضيا، أو ما إذا كان يمكن أن يكون تأثير جانبي نموذجي على تدريب شبكة عصبية. سؤال ثالث وأحدث هو ما إذا كان يمكن تنفيذ نموذج تركيبي على كمبيوتر Quantum. بالنظر إلى الطبيعة الخطية الجوهرية لميكانيكا الكم، نقترح أن هذه الأسئلة مرتبطة، وأن هذا الاستطلاع قد يساعد في تسليط الضوء على عمليات المرشحين لتنفيذ الكم في المستقبل.
Vector representations have become a central element in semantic language modelling, leading to mathematical overlaps with many fields including quantum theory. Compositionality is a core goal for such representations: given representations for wet' and fish', how should the concept wet fish' be represented? This position paper surveys this question from two points of view. The first considers the question of whether an explicit mathematical representation can be successful using only tools from within linear algebra, or whether other mathematical tools are needed. The second considers whether semantic vector composition should be explicitly described mathematically, or whether it can be a model-internal side-effect of training a neural network. A third and newer question is whether a compositional model can be implemented on a quantum computer. Given the fundamentally linear nature of quantum mechanics, we propose that these questions are related, and that this survey may help to highlight candidate operations for future quantum implementation.
References used
https://aclanthology.org/
Improving model generalization on held-out data is one of the core objectives in common- sense reasoning. Recent work has shown that models trained on the dataset with superficial cues tend to perform well on the easy test set with superficial cues b
Natural Language Processing (NLP) is defined by specific, separate tasks, with each their own literature, benchmark datasets, and definitions. In this position paper, we argue that for a complex problem such as the threat to democracy by non-diverse
The research aims to optimize the investment in solar cooling process using two
models of vessels (clay- mineral).The study was conducted at the site of Tartous in the
month (the fourth - fifth - sixth) years (2013) and that the fruits of the tomat
To build robust question answering systems, we need the ability to verify whether answers to questions are truly correct, not just good enough'' in the context of imperfect QA datasets. We explore the use of natural language inference (NLI) as a way
Multilingual Neural Machine Translation (MNMT) trains a single NMT model that supports translation between multiple languages, rather than training separate models for different languages. Learning a single model can enhance the low-resource translat