Mixed Attention Transformer for Leveraging Word-Level Knowledge to Neural Cross-Lingual Information Retrieval
نشر في Zhiqi Huang
بتاريخ 2021
في مجال الهندسة المعلوماتية
والبحث باللغة
English
تحميل البحث
الملخص بالإنكليزية
Pretrained contextualized representations offer great success for many downstream tasks, including document ranking. The multilingu
تحميل البحث