Do you want to publish a course? Click here

Semantic Knowledge Extraction from Research Documents

استخراج المعلومات الدلالية من الوثائق البحثية

980   0   27   0.0 ( 0 )
 Publication date 2019
and research's language is العربية
 Created by Boshra AlHabal




Ask ChatGPT about the research

No English abstract


Artificial intelligence review:
Research summary
تقدم الورقة البحثية نظامًا برمجيًا لاستخراج المعرفة الدلالية من الوثائق البحثية بصيغة PDF. يتكون النظام من عدة خطوات تشمل استخراج المعلومات من ملفات PDF، معالجة البيانات المسبقة، استخراج الكلمات المفتاحية وكلمات الخطاب، وبناء مخزن ثلاثي (Triple-Store). يتم استخدام تقنيات معالجة اللغات الطبيعية (NLP) وعلم الدلالة (ST) لاستخراج الجمل والكلمات الهامة وفقًا لقواعد محددة تتعلق باهتمامات المستخدم. يتم تصوير العلاقات بين الجمل المستخرجة على شكل شبكة رسم بياني، ويمكن للمستخدم اقتراح قواعد جديدة لاستخراج معرفة إضافية. تم اختبار النظام على مجموعة من الأوراق البحثية المتعلقة بإنترنت الأشياء (IoT) وحقق نتائج مقبولة في استخراج المعرفة الهامة.
Critical review
دراسة نقدية: الورقة البحثية تقدم نظامًا متكاملًا لاستخراج المعرفة الدلالية من الوثائق البحثية، وهو موضوع ذو أهمية كبيرة في عصر البيانات الضخمة. ومع ذلك، يمكن تحسين النظام من خلال تضمين تقنيات أكثر تقدمًا في معالجة اللغات الطبيعية لتحليل التركيب النحوي للجمل بشكل أفضل. كما يمكن تحسين دقة استخراج المعرفة من خلال تطوير قواعد استدلال أكثر تعقيدًا. بالإضافة إلى ذلك، يمكن توسيع نطاق التطبيق ليشمل مجالات أخرى غير إنترنت الأشياء، مما يزيد من فائدة النظام في مجالات متعددة.
Questions related to the research
  1. ما هو الهدف الرئيسي من النظام المقترح في الورقة البحثية؟

    الهدف الرئيسي هو استخراج المعرفة الدلالية من الوثائق البحثية بصيغة PDF باستخدام تقنيات معالجة اللغات الطبيعية وعلم الدلالة.

  2. ما هي الخطوات الأساسية التي يتكون منها النظام المقترح؟

    يتكون النظام من استخراج المعلومات من ملفات PDF، معالجة البيانات المسبقة، استخراج الكلمات المفتاحية وكلمات الخطاب، وبناء مخزن ثلاثي (Triple-Store)، وقواعد الاستدلال، وتصوير البيانات.

  3. ما هي التقنيات المستخدمة في النظام لاستخراج المعرفة؟

    يستخدم النظام تقنيات معالجة اللغات الطبيعية (NLP) وعلم الدلالة (ST) واستخراج المعلومات (IE).

  4. ما هي المجالات التي تم اختبار النظام عليها؟

    تم اختبار النظام على مجموعة من الأوراق البحثية المتعلقة بإنترنت الأشياء (IoT).


References used
No references
rate research

Read More

In this work, we empirically compare span extraction methods for the task of semantic role labeling (SRL). While recent progress incorporating pre-trained contextualized representations into neural encoders has greatly improved SRL F1 performance on popular benchmarks, the potential costs and benefits of structured decoding in these models have become less clear. With extensive experiments on PropBank SRL datasets, we find that more structured decoding methods outperform BIO-tagging when using static (word type) embeddings across all experimental settings. However, when used in conjunction with pre-trained contextualized word representations, the benefits are diminished. We also experiment in cross-genre and cross-lingual settings and find similar trends. We further perform speed comparisons and provide analysis on the accuracy-efficiency trade-offs among different decoding methods.
Knowledge graphs (KGs) are widely used to store and access information about entities and their relationships. Given a query, the task of entity retrieval from a KG aims at presenting a ranked list of entities relevant to the query. Lately, an increa sing number of models for entity retrieval have shown a significant improvement over traditional methods. These models, however, were developed for English KGs. In this work, we build on one such system, named KEWER, to propose SERAG (Semantic Entity Retrieval from Arabic knowledge Graphs). Like KEWER, SERAG uses random walks to generate entity embeddings. DBpedia-Entity v2 is considered the standard test collection for entity retrieval. We discuss the challenges of using it for non-English languages in general and Arabic in particular. We provide an Arabic version of this standard collection, and use it to evaluate SERAG. SERAG is shown to significantly outperform the popular BM25 model thanks to its multi-hop reasoning.
We aimed to distinguish between them and the other research areas such as information retrieval and data mining. we tried to determine the general structure of such systems which form a part of larger systems that have a mission to answer user querie s based on the extracted information. we reviewed the different types of these systems, used techniques with them and tried to define the current and future challenges and the consequent research problems. Finally we tried to discuss the details of the various implementations of these systems by explaining two platforms Gate and OpenCalais and comparing between their information extraction systems and discuss the results.
Semantic Web is a new revolution in the world of the Web, where information and data become viable for logical processing by computer programs. Where they are transformed into meaningful data network. Although Semantic Web is considered the future of World Wide Web, the Arabic research and studies are still relatively rare in this field. Therefore, this paper gives a reference study of Semantic Web and the different methods to explore the knowledge and discover useful information from the vast amount of data provided by the web. It gives a programming example like application of some of these techniques provided by the Semantic Web and methods to discover the knowledge of it. This simplified programming example provides services related to higher education Syrian government, such as information about the Syrian public universities like the name of the university (Syrian Virtual University, Tishreen, Aleppo, Damascus, and Al Baath), address of the university, its web site, number of students and a summary of the university, which helps intelligent agents to find those services dynamically.
Text generation from semantic graphs is traditionally performed with deterministic methods, which generate a unique description given an input graph. However, the generation problem admits a range of acceptable textual outputs, exhibiting lexical, sy ntactic and semantic variation. To address this disconnect, we present two main contributions. First, we propose a stochastic graph-to-text model, incorporating a latent variable in an encoder-decoder model, and its use in an ensemble. Second, to assess the diversity of the generated sentences, we propose a new automatic evaluation metric which jointly evaluates output diversity and quality in a multi-reference setting. We evaluate the models on WebNLG datasets in English and Russian, and show an ensemble of stochastic models produces diverse sets of generated sentences while, retaining similar quality to state-of-the-art models.

suggested questions

comments
Fetching comments Fetching comments
Sign in to be able to follow your search criteria
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا