Do you want to publish a course? Click here

This paper describes the construction of a new large-scale English-Japanese Simultaneous Interpretation (SI) corpus and presents the results of its analysis. A portion of the corpus contains SI data from three interpreters with different amounts of e xperience. Some of the SI data were manually aligned with the source speeches at the sentence level. Their latency, quality, and word order aspects were compared among the SI data themselves as well as against offline translations. The results showed that (1) interpreters with more experience controlled the latency and quality better, and (2) large latency hurt the SI quality.
نعرض في هذه المحاضرة بعض المقارنات بين أصول التفسير وعلوم أخرى قريبة منه بدرجة من درجات التقارب. مثل علم أصول التفسير وعلوم القرآن. علم أصول التفسير وعلم أصول الفقه. علم أصول التفسير وقانون التأويل أصول التفسير والهرمنيوطيقا
من المسائل المهمة في البحث العلمي مسألة البحث في تاريخ العلوم, والذي نلحظه أن اهمال البحث في تاريخ بعض العلوم الإسلامية جعل تاريخها محاطا بشيء من الغموض. وربما وقع خلل في مفهوم هذا العلم وفي تصور بعض المسائل التي يتضمنها والحكم عليها. والمتأمل معظم العلوم الإسلامية يجد أن جذورها بدأت منذ عهد رسول الله صلى الله عليه وسلم. ثم تطورت شيئا فشيئا حتى اكتملت في مسائلها الخاصة بها والمصنفات اعتنت بها. والعلوم الإسلامية تختلف في نشاتها فمنها ما نشأ مبكرا ومنها ما تأخر قليلا, ومنها ما تأخر التصنيف فيه إلى القرن الخامس وما بعده. وهذا التأخر لا يؤثر في هذا العلم مادامت مسائله تطبق من قبل العلماء. وإن تأخر جمعها في باب واحد, وأصول التفسير من العلوم التي تأخر التصنيف فيها مقارنة بالعلوم الإسلامية الأخرى. بيد ان مسائله ومباحثه تفرقت في مقدمات بعض المفسرين لتفاسيرهم وفي كتب علوم القرآن وكتب اللغة, وأصول الفقه. وغيرها من المصادر. بل ان جذور هذا العلم بدأت منذ عصر النبي صل الله عليه وسلم.
While natural language understanding of long-form documents remains an open challenge, such documents often contain structural information that can inform the design of models encoding them. Movie scripts are an example of such richly structured text -- scripts are segmented into scenes, which decompose into dialogue and descriptive components. In this work, we propose a neural architecture to encode this structure, which performs robustly on two multi-label tag classification tasks without using handcrafted features. We add a layer of insight by augmenting the encoder with an unsupervised interpretability' module, which can be used to extract and visualize narrative trajectories. Though this work specifically tackles screenplays, we discuss how the underlying approach can be generalized to a range of structured documents.
This paper describes the winning system for TextGraphs 2021 shared task: Multi-hop inference explanation regeneration. Given a question and its corresponding correct answer, this task aims to select the facts that can explain why the answer is correc t for that question and answering (QA) from a large knowledge base. To address this problem and accelerate training as well, our strategy includes two steps. First, fine-tuning pre-trained language models (PLMs) with triplet loss to recall top-K relevant facts for each question and answer pair. Then, adopting the same architecture to train the re-ranking model to rank the top-K candidates. To further improve the performance, we average the results from models based on different PLMs (e.g., RoBERTa) and different parameter settings to make the final predictions. The official evaluation shows that, our system can outperform the second best system by 4.93 points, which proves the effectiveness of our system. Our code has been open source, address is https://github.com/DeepBlueAI/TextGraphs-15
Many existing approaches for interpreting text classification models focus on providing importance scores for parts of the input text, such as words, but without a way to test or improve the interpretation method itself. This has the effect of compou nding the problem of understanding or building trust in the model, with the interpretation method itself adding to the opacity of the model. Further, importance scores on individual examples are usually not enough to provide a sufficient picture of model behavior. To address these concerns, we propose MOXIE (MOdeling conteXt-sensitive InfluencE of words) with an aim to enable a richer interface for a user to interact with the model being interpreted and to produce testable predictions. In particular, we aim to make predictions for importance scores, counterfactuals and learned biases with MOXIE. In addition, with a global learning objective, MOXIE provides a clear path for testing and improving itself. We evaluate the reliability and efficiency of MOXIE on the task of sentiment analysis.
Knowledge graphs (KG) have become increasingly important to endow modern recommender systems with the ability to generate traceable reasoning paths to explain the recommendation process. However, prior research rarely considers the faithfulness of th e derived explanations to justify the decision-making process. To the best of our knowledge, this is the first work that models and evaluates faithfully explainable recommendation under the framework of KG reasoning. Specifically, we propose neural logic reasoning for explainable recommendation (LOGER) by drawing on interpretable logical rules to guide the path-reasoning process for explanation generation. We experiment on three large-scale datasets in the e-commerce domain, demonstrating the effectiveness of our method in delivering high-quality recommendations as well as ascertaining the faithfulness of the derived explanation.
Post-hoc explanation methods are an important class of approaches that help understand the rationale underlying a trained model's decision. But how useful are they for an end-user towards accomplishing a given task? In this vision paper, we argue the need for a benchmark to facilitate evaluations of the utility of post-hoc explanation methods. As a first step to this end, we enumerate desirable properties that such a benchmark should possess for the task of debugging text classifiers. Additionally, we highlight that such a benchmark facilitates not only assessing the effectiveness of explanations but also their efficiency.
يعرف القانون المدني بأنه مجموعة القواعد الموضوعية التي ينظم األحوال العينية والشخصية والتزامات بين األفراد سواء تعلقت بثروتهم أو بأشخاصهم , وهو يمثل الشريعة العامة لباقي القوانين التي تفرعت عنه، لكونه يشتمل على نظرية عامة لاللتزامات صالحة للتطبيق كلما كان هناك فراغ أو نقص في جانب من الجوانب القانونية التي تهم الفروع المنبثقة عنه كالقانون التجاري والقانون االجتماعي والقانون العقاري. ويتصدى القانون المدني لتنظيم كل من: - االلتزامات الشخصية، وتعني الروابط القانونية الشخصية ذات الطابع المالي - التزامات المالية ذات الطابع العيني التي تهدف أصال إلى إنشاء حق عيني أصلي كااللتزامات الناقلة للملكية أو التي ترد على منافع األعيان كالكراء الطويل األمد، أو حق تبعي كالضمان العيني من قبيل الرهون واالمتيازات. و تقسم قواعد القانون المدني إلى قسمين: - القسم األول يهم قانون االلتزامات والعقود المغربي خاص بااللتزامات والحقوق الشخصية ويتفرع إلى كتابين، يخصص األول منه للنظرية العامة لاللتزام، أما الكتاب الثاني فيشمل تطبيقات هذه النظرية - القسم الثاني خاص بالقواعد المنظمة للحقوق األصلية والتبعية
نظرا لحاجة الناس إلى بيان معاني القرآن الكريم فقد جاءت قواعد التفسير لرسم المنهج العلمي في التعامل مع النص القرآني وأقوال المفسرين مستنبطة من النصوص الشرعية وتطبيقات المفسرين. واشتملت هذه الدراسة على تأصيل مفهوم قواعد التفسير لفك التشابك مع غيره من ا لعلوم كعلوم القرآن وأصول التفسير وإزالة الإشكاليات الواردة فيه وفق الأطر العلمية، وبيان العلاقة بين أفراد مفهوم (قواعد التفسير) والربط بينهما، وبيان أن مستثنيات القواعد لا يقدح في كلية القواعد، ومعرفة نشاة هذا المصطلح وبيان علاقته بغيره وان هذا العلم هو جزء من علوم القرآن الذي يعد جزء من علم التفسير, وأن أصول التفسير هو علم رديف لقواعد التفسير وفق المعايير التاريخية واللغوية وغيره.
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا