Do you want to publish a course? Click here

The Range of Correspond Between One Parameter Model and Pair Parameter Model in Psychasthenia Scale Item Fitting

مدى التوافق بين النموذج أحادي المعلم و ثنائي المعلم في مطابقة فقرات مقياس السيكاثينيا

1382   1   79   0 ( 0 )
 Publication date 2017
and research's language is العربية
 Created by Shamra Editor




Ask ChatGPT about the research

The current research is aimed at scaling Psychasthenia scale of Minnesota Multiphasic Personality Inventory 2 , access to a new form and brief to the test, it,s liberal from the sample and items properties, using one and pair parameter models, and testing the effect of two variables in the results of scaling Psychasthenia scale (the model used, the sample size) with using criteria of accuracy as the Standard Error, Relaibility and Information Function.


Artificial intelligence review:
Research summary
تسعى الدراسة الحالية إلى مقارنة مدى التوافق بين النموذجين أحادي المعلم وثنائي المعلم في مطابقة فقرات مقياس السيكاثينيا من اختبار منيسوتا المتعدد الأوجه للشخصية. تم تطبيق الاختبار على عينة من 3000 طالب وطالبة من جامعة دمشق، وتم تقسيم العينة إلى ثلاث مجموعات بحجوم مختلفة (300، 700، 2000) لاختبار تأثير حجم العينة على نتائج التدريج. استخدمت الباحثة ديالا العلى برنامج Bilog لتحليل البيانات وحذف البنود غير الملائمة بناءً على إحصاءات الملاءمة. أظهرت النتائج أن النموذج ثنائي المعلم كان أكثر ملاءمة من النموذج أحادي المعلم في تدريج مقياس السيكاثينيا، خاصة مع العينات الكبيرة والمتوسطة الحجم. كما تم استبعاد خمسة بنود بشكل مشترك بين النموذجين، مما يعكس توافقًا جزئيًا بينهما. توصي الدراسة باستخدام برامج إحصائية متعددة لتدريج بقية المقاييس من اختبار منيسوتا للوصول إلى مستوى عالٍ من الدقة في التشخيص.
Critical review
تعتبر هذه الدراسة خطوة مهمة في مجال القياس النفسي، حيث تسلط الضوء على أهمية استخدام نماذج الاستجابة للمفردة في تحسين دقة الاختبارات النفسية. ومع ذلك، يمكن توجيه بعض النقد البنّاء للدراسة. أولاً، قد يكون من المفيد توسيع نطاق العينة لتشمل جامعات ومناطق جغرافية مختلفة لضمان تعميم النتائج. ثانياً، على الرغم من استخدام برنامج Bilog، إلا أن الاعتماد على برنامج واحد قد يحد من تنوع النتائج، لذا يفضل استخدام برامج إحصائية متعددة. ثالثاً، كان من الممكن تقديم تحليل أعمق للبيانات النوعية المتعلقة بأسباب حذف البنود غير الملائمة، مما قد يساعد في تحسين صياغة البنود المستقبلية.
Questions related to the research
  1. ما هو الهدف الرئيسي من الدراسة؟

    الهدف الرئيسي من الدراسة هو مقارنة مدى التوافق بين النموذجين أحادي المعلم وثنائي المعلم في مطابقة فقرات مقياس السيكاثينيا من اختبار منيسوتا المتعدد الأوجه للشخصية.

  2. ما هي العينة المستخدمة في الدراسة؟

    تم تطبيق الاختبار على عينة من 3000 طالب وطالبة من جامعة دمشق، وتم تقسيم العينة إلى ثلاث مجموعات بحجوم مختلفة (300، 700، 2000).

  3. ما هي النتائج الرئيسية التي توصلت إليها الدراسة؟

    أظهرت النتائج أن النموذج ثنائي المعلم كان أكثر ملاءمة من النموذج أحادي المعلم في تدريج مقياس السيكاثينيا، خاصة مع العينات الكبيرة والمتوسطة الحجم. كما تم استبعاد خمسة بنود بشكل مشترك بين النموذجين.

  4. ما هي التوصيات التي قدمتها الدراسة؟

    توصي الدراسة باستخدام برامج إحصائية متعددة لتدريج بقية المقاييس من اختبار منيسوتا للوصول إلى مستوى عالٍ من الدقة في التشخيص.


References used
AFRSSA , TM & KEEVES , J. (1999). Changes In Student s Mathematics Achievement In Australian Lower Secondary Schools Over Time . International Education Journal , 1(1) , p 1 – 21
GEORGIEV, N. (2008). Item Analysis of C,D and E Series From Raven,s Standard progressive Matrices With Item Response Theory Two Parameter Logistic Model.Europe,s Journal of Psychology, p15
HATHWAY,S.R & MCKINLEY ,J. (2006). MMPI-2 Minesota Multiphasic Personality Inventory -2. , Manual for Administration and Scoring,P230
rate research

Read More

This study aimed at finding out the differences in item difficulty parameter estimations for Simulated Data having (MC1- PL) Model in Item Response Theory (IRT) according to the differences in a test Dimensions (3D; 2D; 1D), correlations between th ese dimensions (0.0, 0.50, 0.86), and the statistical program used in analyzing the data (NOHARM ؛Bilog- MG3). The Monte Carlo simulations data having (MC1- PL) Model in IRT using (RESGENT) program; that fully filled in a 21-item was used to achieve the study aims. Data were analyzed using the statistical programs (NOHARM ؛Bilog- MG3). The results revealed no statistically significant differences in item difficulty parameter estimations that construct the multidimensional test within items due to differences in a test, correlations between these dimensions, and the statistical program used in analyzing the data (NOHARM ؛Bilog- MG3), as well as the estimations were consistent and high. Finally, the study recommends using these statistical programs for a data having (MC1- PL) Model, especially when similar assumptions are satisfied in a real data.
The problem of outliers values is considered one of the important objects that affect the estimation of statistical intermediaries specially regression model intermediaries. We have tried in this research to introduce a comprehensive study Of the outliers and some ways of exploring and treating them. In addition to , we have put anew algorithm that helps to find the estimation of the outliers. This matter helps in treating outliers and getting exact results in regression analysis.
Recently, kNN-MT (Khandelwal et al., 2020) has shown the promising capability of directly incorporating the pre-trained neural machine translation (NMT) model with domain-specific token-level k-nearest-neighbor (kNN) retrieval to achieve domain adapt ation without retraining. Despite being conceptually attractive, it heavily relies on high-quality in-domain parallel corpora, limiting its capability on unsupervised domain adaptation, where in-domain parallel corpora are scarce or nonexistent. In this paper, we propose a novel framework that directly uses in-domain monolingual sentences in the target language to construct an effective datastore for k-nearest-neighbor retrieval. To this end, we first introduce an autoencoder task based on the target language, and then insert lightweight adapters into the original NMT model to map the token-level representation of this task to the ideal representation of the translation task. Experiments on multi-domain datasets demonstrate that our proposed approach significantly improves the translation accuracy with target-side monolingual data, while achieving comparable performance with back-translation. Our implementation is open-sourced at https://github. com/zhengxxn/UDA-KNN.
In this work, we explore prompt tuning,'' a simple yet effective mechanism for learning soft prompts'' to condition frozen language models to perform specific downstream tasks. Unlike the discrete text prompts used by GPT-3, soft prompts are learned through backpropagation and can be tuned to incorporate signals from any number of labeled examples. Our end-to-end learned approach outperforms GPT-3's few-shot learning by a large margin. More remarkably, through ablations on model size using T5, we show that prompt tuning becomes more competitive with scale: as models exceed billions of parameters, our method closes the gap'' and matches the strong performance of model tuning (where all model weights are tuned). This finding is especially relevant because large models are costly to share and serve and the ability to reuse one frozen model for multiple downstream tasks can ease this burden. Our method can be seen as a simplification of the recently proposed prefix tuning'' of Li and Liang (2021) and we provide a comparison to this and other similar approaches. Finally, we show that conditioning a frozen model with soft prompts confers benefits in robustness to domain transfer and enables efficient prompt ensembling.'' We release code and model checkpoints to reproduce our experiments.
This research aimed to identify the discrimination capacity of the part one of AAMR adaptive behavior scale in discrimination between children from different ages, through studying the differences between children's performance who including in th e research, where the research sample consisted of (490) children aged (11-15) year, they are students in the second stage basic teaching students in Damascus governorate schools.
comments
Fetching comments Fetching comments
Sign in to be able to follow your search criteria
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا