Do you want to publish a course? Click here

Testability metrics and their impact on software testing

مقاييس قابلية الاختبار وأثرها على اختبار البرمجيات

517   0   0   0.0 ( 0 )
 Publication date 2015
  fields Mathematics
and research's language is العربية
 Created by Shamra Editor




Ask ChatGPT about the research

The efforts of the software developer teams are focused on conducting tests to detect different types of errors in a systematic way, with the least amount of cost, time and effort.

References used
Abran, A.2010. software metrics and software metrology

Artificial intelligence review:
Research summary
تتناول هذه الأطروحة تأثير مقاييس قابلية الاختبار على اختبار البرمجيات، حيث تعتبر عملية اختبار البرمجيات من العمليات المكلفة مادياً وزمنياً. تهدف الدراسة إلى التحقق من صحة بعض مقاييس قابلية الاختبار ودراسة ما إذا كان يمكن استخدامها كمؤشرات لقابلية الاختبار ضمن الاستراتيجية المتبعة. لتحقيق ذلك، تم اختيار أكثر من 700 مشروع برمجي مفتوح المصدر وكتابة تطبيق برمجي لحساب المقاييس المختارة باستخدام لغة البرمجة Java. تم دراسة علاقة الارتباط بين قيم هذه المقاييس في ملفات الاختبار وقيمها في ملفات النسخة الأصلية. كما تم إجراء دراسة تجريبية لتحسين قابلية الاختبار باستخدام أسلوب النص البرمجي النظيف وتطبيق عملية إعادة الهيكلة Refactoring للنص، ودراسة أثرها على نتائج قيم مقاييس قابلية الاختبار. تم استنتاج حد العتبة النموذجي لمقاييس تعقيد النص البرمجي المدروسة، واقتراح مقاييس ومنهجية عملية لتحسين النتائج. تشمل الأطروحة فصولاً متعددة تغطي مقدمة عن هندسة البرمجيات، تقنيات اختبار البرمجيات، المقاييس البرمجية وأثرها على اختبار البرمجيات، التنبؤ بقابلية اختبار الصف باستخدام مقاييس تعقيدات النص البرمجي، وإعادة هيكلة النص البرمجي وأثرها على قابلية اختبار البرمجيات. كما تتضمن الأطروحة دراسات ذات صلة، أدوات وتطبيقات، ونتائج وآفاق مستقبلية.
Critical review
تعتبر هذه الأطروحة خطوة مهمة في مجال تحسين عملية اختبار البرمجيات من خلال التركيز على مقاييس قابلية الاختبار. ومع ذلك، يمكن الإشارة إلى بعض النقاط التي قد تحتاج إلى تحسين. على سبيل المثال، كان من الممكن توسيع نطاق الدراسة لتشمل لغات برمجة أخرى غير Java، مما يعزز من شمولية النتائج. كما أن الاعتماد على مشاريع مفتوحة المصدر فقط قد لا يعكس تنوع البرمجيات المستخدمة في الصناعة. بالإضافة إلى ذلك، يمكن أن تكون الدراسة أكثر تفصيلاً في شرح كيفية تطبيق عملية إعادة الهيكلة وتأثيرها على مقاييس قابلية الاختبار. على الرغم من هذه النقاط، فإن الأطروحة تقدم مساهمة قيمة في مجال تحسين جودة البرمجيات وتقليل تكلفة ووقت الاختبار.
Questions related to the research
  1. ما هي أهمية دراسة قابلية الاختبار في البرمجيات؟

    تعتبر دراسة قابلية الاختبار مهمة لأنها تساعد في تقليل تكلفة ووقت الاختبار، وتحسين جودة البرمجيات من خلال الكشف المبكر عن الأخطاء وتسهيل عملية الاختبار.

  2. ما هي الأدوات المستخدمة في هذه الأطروحة لحساب مقاييس قابلية الاختبار؟

    تم استخدام أدوات مثل JUnit وJava Source Code Metrics وLocMetrics وSourceMonitor وEclipse Metrics Plug-in وUnderstand for Java لحساب مقاييس قابلية الاختبار.

  3. ما هو تأثير إعادة الهيكلة على قابلية الاختبار؟

    إعادة الهيكلة تساعد في تحسين قابلية الاختبار من خلال جعل النص البرمجي أكثر قابلية للقراءة والفهم، وتقليل تعقيد النص البرمجي، مما يسهل عملية الاختبار.

  4. ما هي العلاقة بين تعقيد النص البرمجي وقابلية الاختبار؟

    هناك علاقة قوية بين تعقيد النص البرمجي وقابلية الاختبار، حيث أن النص البرمجي الأكثر تعقيداً يكون أصعب في الاختبار. تقليل تعقيد النص البرمجي من خلال إعادة الهيكلة يمكن أن يحسن قابلية الاختبار.

rate research

Read More

The advent of Deep Learning and the availability of large scale datasets has accelerated research on Natural Language Generation with a focus on newer tasks and better models. With such rapid progress, it is vital to assess the extent of scientific p rogress made and identify the areas/components that need improvement. To accomplish this in an automatic and reliable manner, the NLP community has actively pursued the development of automatic evaluation metrics. Especially in the last few years, there has been an increasing focus on evaluation metrics, with several criticisms of existing metrics and proposals for several new metrics. This tutorial presents the evolution of automatic evaluation metrics to their current state along with the emerging trends in this field by specifically addressing the following questions: (i) What makes NLG evaluation challenging? (ii) Why do we need automatic evaluation metrics? (iii) What are the existing automatic evaluation metrics and how can they be organised in a coherent taxonomy? (iv) What are the criticisms and shortcomings of existing metrics? (v) What are the possible future directions of research?
This paper presents the results of the WMT21 Metrics Shared Task. Participants were asked to score the outputs of the translation systems competing in the WMT21 News Translation Task with automatic metrics on two different domains: news and TED talks . All metrics were evaluated on how well they correlate at the system- and segment-level with human ratings. Contrary to previous years' editions, this year we acquired our own human ratings based on expert-based human evaluation via Multidimensional Quality Metrics (MQM). This setup had several advantages: (i) expert-based evaluation has been shown to be more reliable, (ii) we were able to evaluate all metrics on two different domains using translations of the same MT systems, (iii) we added 5 additional translations coming from the same system during system development. In addition, we designed three challenge sets that evaluate the robustness of all automatic metrics. We present an extensive analysis on how well metrics perform on three language pairs: English to German, English to Russian and Chinese to English. We further show the impact of different reference translations on reference-based metrics and compare our expert-based MQM annotation with the DA scores acquired by WMT.
يندرج هذا العمل ضمن إطار تطوير البرمجيات , في سياق هندسة البرمجيات، يستخدم مصطلح منهجية تطوير برمجيات (بالإنكليزية Software development methodology) للتعبير عن إطار العمل المتبع لهيكلة و تخطيط و السيطرة على عملية تطوير نظام معلوماتي. من الأمثلة الشائ عة على منهجيات تطوير البرمجيات: الشلال و النماذج و التطوير المتزايد و التطوير الحلزوني و تطوير التطبيقات السريع و البرمجة القصوى. يمكن أن تتضمن المنهجية جوانب من بيئة التطوير و استخدام بعض منصات العمل (مثل المكتبات و الأدوات البرمجية).
In this paper, we present our submission to Shared Metrics Task: RoBLEURT (Robustly Optimizing the training of BLEURT). After investigating the recent advances of trainable metrics, we conclude several aspects of vital importance to obtain a well-per formed metric model by: 1) jointly leveraging the advantages of source-included model and reference-only model, 2) continuously pre-training the model with massive synthetic data pairs, and 3) fine-tuning the model with data denoising strategy. Experimental results show that our model reaching state-of-the-art correlations with the WMT2020 human annotations upon 8 out of 10 to-English language pairs.
In this paper, we describe our submission to the WMT 2021 Metrics Shared Task. We use the automatically-generated questions and answers to evaluate the quality of Machine Translation (MT) systems. Our submission builds upon the recently proposed MTEQ A framework. Experiments on WMT20 evaluation datasets show that at the system-level the MTEQA metric achieves performance comparable with other state-of-the-art solutions, while considering only a certain amount of information from the whole translation.

suggested questions

comments
Fetching comments Fetching comments
Sign in to be able to follow your search criteria
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا