تهدف المنطق الرياضي إلى استنتاج الحلول الراضية بناء على أسئلة الرياضيات المعينة. أثبتت أبحاث معالجة اللغة الطبيعية السابقة فعالية التسلسل إلى التسلسل (SEQ2SEQ) أو المتغيرات ذات الصلة على حل الرياضيات. ومع ذلك، تمكن عدد قليل من الأعمال من استكشاف المعلومات الهيكلية أو النحوية المخفية في التعبيرات (على سبيل المثال، الأسبقية والزملاء). وضعت هذه الرسالة للتحقيق في فائدة مثل هذه المعلومات غير المستغلة للهندسة العصبية. أولا، يتم تمثيل الأسئلة الرياضية بتنسيق الرسوم البيانية داخل تحليل بناء الجملة. تتيح لهم الطبيعة المنظمة للرسوم البيانية أن تمثل علاقات المتغيرات أو المشغلين مع الحفاظ على دلالات التعبيرات. بعد أن تحولت إلى التمثيلات الجديدة، اقترحنا Graphmr الشبكة العصبية الرسمية الرسمية، والتي يمكن أن تتعلم بفعالية المعلومات الهرمية من مدخلات الرسوم البيانية لحل الرياضيات وتوقع الإجابات. يتم بناء سيناريو تجريبي كامل مع أربع فئات من المهام الرياضية وثلاثة خطوط خطوط خطوط خطوط SEQ2SEQ لإجراء تحليل شامل، وتظهر النتائج أن Graphmr تفوقت على الآخرين في التعلم والمعلومات المخفية والحل الرياضيات.
Mathematical reasoning aims to infer satisfiable solutions based on the given mathematics questions. Previous natural language processing researches have proven the effectiveness of sequence-to-sequence (Seq2Seq) or related variants on mathematics solving. However, few works have been able to explore structural or syntactic information hidden in expressions (e.g., precedence and associativity). This dissertation set out to investigate the usefulness of such untapped information for neural architectures. Firstly, mathematical questions are represented in the format of graphs within syntax analysis. The structured nature of graphs allows them to represent relations of variables or operators while preserving the semantics of the expressions. Having transformed to the new representations, we proposed a graph-to-sequence neural network GraphMR, which can effectively learn the hierarchical information of graphs inputs to solve mathematics and speculate answers. A complete experimental scenario with four classes of mathematical tasks and three Seq2Seq baselines is built to conduct a comprehensive analysis, and results show that GraphMR outperforms others in hidden information learning and mathematics resolving.
References used
https://aclanthology.org/
Jupyter notebook allows data scientists to write machine learning code together with its documentation in cells. In this paper, we propose a new task of code documentation generation (CDG) for computational notebooks. In contrast to the previous CDG
Extractive text summarization aims at extracting the most representative sentences from a given document as its summary. To extract a good summary from a long text document, sentence embedding plays an important role. Recent studies have leveraged gr
This paper presents the first study on using large-scale pre-trained language models for automated generation of an event-level temporal graph for a document. Despite the huge success of neural pre-training methods in NLP tasks, its potential for tem
The next generation of conversational AI systems need to: (1) process language incrementally, token-by-token to be more responsive and enable handling of conversational phenomena such as pauses, restarts and self-corrections; (2) reason incrementally
Recently Graph Neural Network (GNN) has been used as a promising tool in multi-hop question answering task. However, the unnecessary updations and simple edge constructions prevent an accurate answer span extraction in a more direct and interpretable