في حين أن إنتاج المعلومات في الفترة الحديثة الأوروبية المبكرة هو موضوع بحثي جيدا، فإن السؤال كيف كان الناس يشاركون مع انفجار المعلومات الذي حدث في أوروبا الحديثة المبكرة، لا يزال غير مقصود. تقدم هذه الورقة التعليقات التوضيحية والتجارب التي تهدف إلى استكشاف ما إذا كان بإمكاننا استخراج المعلومات ذات الصلة بالوسائط (المصدر، والإدراك، والمستقبل) من جثة من سجلات هولندية حديثة مبكرة من أجل الحصول على نظرة ثاقبة في وسائل الإعلام من أفراد الطبقة الوسطى الحديثة المبكرة من منظور تاريخي. في عدد من تجارب التصنيف مع الحقول العشوائية الشرطية، يتم اختبار ثلاث فئات من الميزات: (1) ميزات تضمين Word RAW و Binary، (II) ميزات المعجم، و (III) ميزات الأحرف. بشكل عام، يؤدي المصنف الذي يستخدم embeddings الخام أفضل قليلا. ومع ذلك، بالنظر إلى أن أفضل درجات F حوالي 0.60، نستنتج أن نهج التعلم الآلي يجب الجمع بين نهج قراءة وثيق للنتائج مفيدة للإجابة على أسئلة بحث التاريخ.
While the production of information in the European early modern period is a well-researched topic, the question how people were engaging with the information explosion that occurred in early modern Europe, is still underexposed. This paper presents the annotations and experiments aimed at exploring whether we can automatically extract media related information (source, perception, and receiver) from a corpus of early modern Dutch chronicles in order to get insight in the mediascape of early modern middle class people from a historic perspective. In a number of classification experiments with Conditional Random Fields, three categories of features are tested: (i) raw and binary word embedding features, (ii) lexicon features, and (iii) character features. Overall, the classifier that uses raw embeddings performs slightly better. However, given that the best F-scores are around 0.60, we conclude that the machine learning approach needs to be combined with a close reading approach for the results to be useful to answer history research questions.
References used
https://aclanthology.org/
Identifying intertextual relationships between authors is of central importance to the study of literature. We report an empirical analysis of intertextuality in classical Latin literature using word embedding models. To enable quantitative evaluatio
ProfNER-ST focuses on the recognition of professions and occupations from Twitter using Spanish data. Our participation is based on a combination of word-level embeddings, including pre-trained Spanish BERT, as well as cosine similarity computed over
Detecting lexical semantic change in smaller data sets, e.g. in historical linguistics and digital humanities, is challenging due to a lack of statistical power. This issue is exacerbated by non-contextual embedding models that produce one embedding
Word Embedding maps words to vectors of real numbers. It is derived from a large corpus and is known to capture semantic knowledge from the corpus. Word Embedding is a critical component of many state-of-the-art Deep Learning techniques. However, gen
We present Query2Prod2Vec, a model that grounds lexical representations for product search in product embeddings: in our model, meaning is a mapping between words and a latent space of products in a digital shop. We leverage shopping sessions to lear