في المدارس الابتدائية، تستخدم كتب الأطفال، وكذلك في تطبيقات تعلم اللغة الحديثة، واستراتيجيات تعليمية متعددة الوسائط مثل الرسوم التوضيحية للمصطلحات والعبارات لدعم فهم القراءة.أيضا، تشير العديد من الدراسات في علم النفس التعليمي إلى أن دمج المعلومات العابطة العابرة ستحسن من فهم القراءة.نحن ندعي أن محولات الحالة متعددة الوسائط، والتي يمكن استخدامها في سياق متعلم لغوي لتحسين القراءة البشرية، ستؤدي بشكل سيئ بسبب البيانات النصية القصيرة والبسيطة نسبيا والتي يتم تدريب تلك النماذج معها.لإثبات فرضياتنا، جمعنا مجموعة بيانات جديدة متعددة الوسائط على أساس البيانات من Wikipedia.في تحليل بيانات متعمقة، نسلط الضوء على الاختلافات بين مجموعة البيانات الخاصة بنا ومجموعات البيانات الشائعة الأخرى.بالإضافة إلى ذلك، نقوم بتقييم العديد من المحولات متعددة الوسائط متعددة الأحوال على استرجاع الصور النصية على مجموعة بياناتنا وتحليل نتائجها الضئيلة، والتي تحقق من مطالباتنا.
In primary school, children's books, as well as in modern language learning apps, multi-modal learning strategies like illustrations of terms and phrases are used to support reading comprehension. Also, several studies in educational psychology suggest that integrating cross-modal information will improve reading comprehension. We claim that state-of- he-art multi-modal transformers, which could be used in a language learner context to improve human reading, will perform poorly because of the short and relatively simple textual data those models are trained with. To prove our hypotheses, we collected a new multi-modal image-retrieval dataset based on data from Wikipedia. In an in-depth data analysis, we highlight the differences between our dataset and other popular datasets. Additionally, we evaluate several state-of-the-art multi-modal transformers on text-image retrieval on our dataset and analyze their meager results, which verify our claims.
References used
https://aclanthology.org/
Recent advances in using retrieval components over external knowledge sources have shown impressive results for a variety of downstream tasks in natural language processing. Here, we explore the use of unstructured external knowledge sources of image
Open-domain extractive question answering works well on textual data by first retrieving candidate texts and then extracting the answer from those candidates. However, some questions cannot be answered by text alone but require information stored in
We analyze if large language models are able to predict patterns of human reading behavior. We compare the performance of language-specific and multilingual pretrained transformer models to predict reading time measures reflecting natural human sente
We propose a new task, Text2Mol, to retrieve molecules using natural language descriptions as queries. Natural language and molecules encode information in very different ways, which leads to the exciting but challenging problem of integrating these
Multi-modal machine translation (MMT) aims at improving translation performance by incorporating visual information. Most of the studies leverage the visual information through integrating the global image features as auxiliary input or decoding by a