Do you want to publish a course? Click here

الاحتجاج بالشاهد المصنوع (نظرات في بعض الشواهد)

889   2   9   0 ( 0 )
 Publication date 2003
  fields Arabic
and research's language is العربية
 Created by Shamra Editor




Ask ChatGPT about the research

No English abstract



References used
الأزهري: خالد بن عبد الله، شرح التصريح على التوضيح، دار الفكر بيروت، بلا تاريخ.
الأشموني: علي بن محمد، شرح الألفية، تحقيق طه عبد الرؤوف سعد، المكتبة التوفيقية، مصر، بلا تاريخ.
الأصبهاني: علي بن الحسين، الأغاني، دار إحياء التراث العربي، لبنان (عن طبعة دار الكتب المصرية) بلا تاريخ.
rate research

Read More

تهدف هذه الدراسة إلى الكشف عن بعض جوانب حكمة توزيع الميراث في الإسلام، من الناحية الاقتصادية، نظراً لما للجانب الاقتصادي من أهمية في الواقع المعاصر، و ذلك ردّاً على بعض المفتريات و الاتهامات لنظام الميراث الإسلامي من الناحية الاقتصادية .
Cleaning denture have the most important point to dentist because it has the most effect in the live of the removable denture and in the health of the mouth tissue , so we must to share between mechanical cleaning with tooth brush and with chemic al cleaning to kill the bacteria and candida albican and to remove food depris from the denture surface . there are many disinfection solutions for removable denture so we have to do a research for effect of these solutions on the removable denture which made from Crom Cobalt alloy, and on the candida albican colonization on the denture surface .
يدور هذا البحث حول منهج ابن عاشور في الاحتجاج بالقراءات القرآنية في كتابه تفسير التحرير و التنوير؛ حيث أظهرت فيه أقسام القراءات عند ابن عاشور، و ميزة كل قسم و أمثلته، و بينت موقفه من شروط القراءة الصحيحة، و رددت على بعض الأمور التي رأيتها تخالف ال صواب، خصوصا تلك التي يتحدث فيها عن أصل نشأة القراءات القرآنية و شروط القراءة الصحيحة، و أشرت إلى أن موقفه هذا لا يخل في تفسيره ذلك لأنه اقتصر في غالب احتجاجه على القراءات القرآنية المتواترة، و نبهت على ضرورة التوثق من ذلك.
Large pretrained models have seen enormous success in extractive summarization tasks. In this work, we investigate the influence of pretraining on a BERT-based extractive summarization system for scientific documents. We derive significant performanc e improvements using an intermediate pretraining step that leverages existing summarization datasets and report state-of-the-art results on a recently released scientific summarization dataset, SciTLDR. We systematically analyze the intermediate pretraining step by varying the size and domain of the pretraining corpus, changing the length of the input sequence in the target task and varying target tasks. We also investigate how intermediate pretraining interacts with contextualized word embeddings trained on different domains.
Language models have proven to be very useful when adapted to specific domains. Nonetheless, little research has been done on the adaptation of domain-specific BERT models in the French language. In this paper, we focus on creating a language model a dapted to French legal text with the goal of helping law professionals. We conclude that some specific tasks do not benefit from generic language models pre-trained on large amounts of data. We explore the use of smaller architectures in domain-specific sub-languages and their benefits for French legal text. We prove that domain-specific pre-trained models can perform better than their equivalent generalised ones in the legal domain. Finally, we release JuriBERT, a new set of BERT models adapted to the French legal domain.
comments
Fetching comments Fetching comments
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا