Do you want to publish a course? Click here

الاتفاق مع الاختلاف محاولة لحوار إسلامي – إسلامي في قراءة لمذهب الصوفية

623   0   9   0 ( 0 )
 Publication date 2002
  fields Sharia
and research's language is العربية
 Created by Shamra Editor




Ask ChatGPT about the research

No English abstract

References used
المحرر الوجيز لابن عطية الأندلسي ط: مؤسسة دار العلوم تحقيق : الرحالة الفاروقي وعبد الله و عبد العال إبراهيم و ومحمد الشافعي العناني
صحيح البخاري محمد بن إسماعيل البخاري مراجعة: د. مصطفى البغا دار ابن كثير واليمامة. بيروت
صحيح مسلم مسلم بن الحجاج القشيري،تحقيق محمد فؤاد عبد الباقي دار إحياء التراث العرب بيروت
rate research

Read More

تمثلت مشكلة الدراسة في بحث مفهوم المواطنة في الفكر الغربي المعاصر و ما ينطوي عليه هذا المفهوم من دلالات و أبعاد سياسية و اجتماعية أمكن إجمالها في المساواة و الحرية . و حسب منهجية الدراسة تم تتبع الأصول الفكرية التي تمثل منابع الفكر الغربي المعاصر ف ي تحديد معنى كل من المساواة و الحرية و تحليل أبعاد كل منهما ، و التطبيقات التي نتجت عنها في كل من المعسكرين : الليرالي / الديمقراطي ، و الشيوعي الاشتراكي ، و نقد المفهوم و الممارسات من المنظور الإسلامي .
الطِّب علم و تطبيق، و لا بد لمن يمارسه أن يتعلمه، و كلُّ من يدعيه دون علمٍ فهو جاهل. و إذا سمح الجاهل لنفسه أن يتعاطى الطِّب فإنه سيلحق الضرر بالآخرين، و على هذا فلا بد من مساءلته. فالشريعة الإسلامية تحث على التداوي حفاظًا على صحة الإنسان و حفظ جس مه؛ لأن ذلك من الضرورات التي يجب مراعاتها. و لا تسمح لأحدٍ بالتجاوز و الاعتداء، و لذلك فهي تضع الضوابط، و تأمر بالتعلم، و من لا يراعي ذلك فهو متعدٍ يجب منعه، فإن ترتب على فعله ضرر فعليه الضمان .
Knowledge-intensive tasks such as question answering often require assimilating information from different sections of large inputs such as books or article collections. We propose ReadTwice, a simple and effective technique that combines several str engths of prior approaches to model long-range dependencies with Transformers. The main idea is to read text in small segments, in parallel, summarizing each segment into a memory table to be used in a second read of the text. We show that the method outperforms models of comparable size on several question answering (QA) datasets and sets a new state of the art on the challenging NarrativeQA task, with questions about entire books.
Attention-based pre-trained language models such as GPT-2 brought considerable progress to end-to-end dialogue modelling. However, they also present considerable risks for task-oriented dialogue, such as lack of knowledge grounding or diversity. To a ddress these issues, we introduce modified training objectives for language model finetuning, and we employ massive data augmentation via back-translation to increase the diversity of the training data. We further examine the possibilities of combining data from multiples sources to improve performance on the target dataset. We carefully evaluate our contributions with both human and automatic methods. Our model substantially outperforms the baseline on the MultiWOZ data and shows competitive performance with state of the art in both automatic and human evaluation.
Developing mechanisms that flexibly adapt dialog systems to unseen tasks and domains is a major challenge in dialog research. Neural models implicitly memorize task-specific dialog policies from the training data. We posit that this implicit memoriza tion has precluded zero-shot transfer learning. To this end, we leverage the schema-guided paradigm, wherein the task-specific dialog policy is explicitly provided to the model. We introduce the Schema Attention Model (SAM) and improved schema representations for the STAR corpus. SAM obtains significant improvement in zero-shot settings, with a +22 F1 score improvement over prior work. These results validate the feasibility of zero-shot generalizability in dialog. Ablation experiments are also presented to demonstrate the efficacy of SAM.

suggested questions

comments
Fetching comments Fetching comments
Sign in to be able to follow your search criteria
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا