Do you want to publish a course? Click here

Comparison of The Performance of The Replacement Functions for Hard Disk Cache and Web Cache algorithms

مقارنة اداء توابع الاستبدال لخوارزميات كاش القرص الصلب و كاش الويب

1235   0   7   0.0 ( 0 )
 Publication date 2018
and research's language is العربية
 Created by Shamra Editor




Ask ChatGPT about the research

In this research paper, we compare the basic cache algorithms in terms of performance and speed for the purposes of web caching for dynamic content and hard disk buffering purposes, by studying the traditional algorithms in this field, in order to determine the utilization of the basic algorithms in disk storage in the field of web caching. The results shows that algorithms with replacement functions that rely on basic indicators (such as LRU, LFU) give better results in storage for storage purposes in hard drives, while web caching algorithms need additional benchmarks for replacement work to get high performance indicators, Web Cache algorithms also show lower performance then that hard drive, so the need to constantly develop the Web cache algorithm.


Artificial intelligence review:
Research summary
تناقش هذه الورقة البحثية مقارنة بين خوارزميات الكاش الأساسية من حيث الأداء والسرعة لأغراض التخزين المؤقت للويب الديناميكي وأغراض التخزين المؤقت في القرص الصلب. تم دراسة الخوارزميات التقليدية مثل LRU و LFU، ووجد أن هذه الخوارزميات تعطي نتائج أفضل في التخزين المؤقت على الأقراص الصلبة مقارنة بكاش الويب. تحتاج خوارزميات كاش الويب إلى معايير إضافية لتحقيق أداء عالي. كما تبين أن أداء خوارزميات الكاش في الويب أقل من أداءها في القرص الصلب، مما يشير إلى الحاجة المستمرة لتطوير خوارزميات كاش الويب. تم استخدام المنهج التجريبي والمنهج الوصفي للتحقق من فرضيات البحث، وتم تصميم محاكيات لاختبار الخوارزميات على كل من القرص الصلب ومخدم الويب. أظهرت النتائج أن الخوارزميات المحسنة مثل GDFS تعطي أداء أفضل من الخوارزميات الأساسية، خاصة في مجال الويب. توصي الدراسة باستخدام الخوارزميات المحسنة في مجال الويب والخوارزميات الأساسية أو المحسنة بشكل بسيط في مجال القرص الصلب.
Critical review
دراسة نقدية: تعتبر هذه الورقة البحثية شاملة ومفصلة في تحليلها لخوارزميات الكاش المختلفة وتطبيقاتها على كل من القرص الصلب وكاش الويب. ومع ذلك، يمكن الإشارة إلى بعض النقاط التي قد تحتاج إلى مزيد من التوضيح أو التحسين. أولاً، لم يتم التطرق بشكل كافٍ إلى تأثير العوامل البيئية مثل نوعية البيانات وحجمها على أداء الخوارزميات. ثانياً، كان من الممكن تقديم تحليل أعمق حول كيفية تحسين الخوارزميات الحالية بدلاً من مجرد الإشارة إلى الحاجة لتطويرها. أخيراً، كان من المفيد تضمين تجارب عملية إضافية أو دراسات حالة لتوضيح تطبيقات الخوارزميات في بيئات حقيقية.
Questions related to the research
  1. ما هي الخوارزميات الأساسية التي تم دراستها في الورقة؟

    تم دراسة خوارزميات LRU و LFU كخوارزميات أساسية في الورقة.

  2. ما هو الهدف الرئيسي من البحث؟

    الهدف الرئيسي هو تقييم أداء مجموعة من سياسات الاستبدال المختلفة لخوارزميات الكاش وتحديد الأفضل منها لأغراض التخزين المؤقت في القرص الصلب وكاش الويب.

  3. ما هي الخوارزمية التي أعطت أفضل أداء في مجال الويب؟

    خوارزمية GDFS أعطت أفضل أداء في مجال الويب مقارنة بباقي الخوارزميات.

  4. ما هي التوصيات المقدمة في الورقة؟

    توصي الورقة باستخدام الخوارزميات وحيدة المعيار في القرص الصلب والخوارزميات المحسنة مثل GDFS في مجال الويب.


References used
K,Arashi, Taha, R Ezaei-H, Achesu P Eyman , G Aderi Leila, Acta Medica, “Designing And Evaluating The Web-Based Information System Of Primary, Health Care In Accordance With The Electronic Health Records Of Iran”, Mediterranea, 2016, 32: 2051
Moruz, Gabriel; Negoescu, Andrei; Neumann, Christian; W, Volker;” Engineering Efficient Paging Algorithms”;Goethe University Frankfurt am Main. Robert-Mayer-Str. 11-15, 60325 Frankfurt am Main, Germany.2015
Saemundsson, Trausti ;”An experimental comparison of cache algorithms”; Research Methodology, Reykjavik University, September 30, 2013
rate research

Read More

Due to the large increase in the use of data communication and information exchange services of different types in different environments, the standard and the programming had to be a language of characterization is ideal for scalability and develo pment that serve the growing needs in the best form and in the shortest possible time and was the most widely used language and the most widely used XML language. he adoption of graphics architecture sometimes created a problem affecting the performance of information transmission networks due to the large volume of data exchanged as well as the need for large storage capacity at both ends of the transmission and reception. Effective ways of reducing the amount of data exchanged through the network had to be found. There have been many scientific researches and practical experiments on finding effective ways to reduce the actual size of the data and by adopting different parameters that affect the process of compressing the files so as to achieve better results by reducing the volumes of files exchanged with attention to times of compression and decompression of files. In this research, we focused on the study and comparison of some compression algorithms for files and their effect on data communication in networks.
In this paper, we compare the performance of sporadic tasks scheduler algorithms on a multi-core platform in order to determine the best algorithm in terms of a set of parameters adopted by researchers in this field, which in turn gives us accurate details about the quality of such algorithms when applied to a set of sporadic tasks generated according to uniformed Logarithmic probability distribution. The simulation is done using Simso simulator, which proved the reliability of high performance by the testimony of many researchers in this field, as it provides the possibility of generating tasks according to specific probability distributions, and simulates accurate details related to the characteristics of random tasks.
Wireless sensor networks (WSNs) are often deployed by random bestrewing (airplane bestrewing for example). A majority of nodes cannot obtain their coordinate beforehand. Therefore, how to obtain the position information of unknown nodes, which is called localization problem, has become a hot topic in WSN. Without position information, WSN cannot work properly. Global Position System (GPS) is the most extensive and mature position system at present. But because the nodes usually have the shortcoming of high expenditure, large volume, high cost and require settled basal establishment, therefore, the GPS is inapplicable for the low-cost selfconfigure sensor networks, and also it is impossible to install GPS for each sensor node. In this paper, we will study localization mechanisms (which is not based on GPS) used in WSN, and will test the effectiveness of using MUSIC algorithm in determining the signal arrival angel depending on the SDMA- technology and ESPAR antenna.
We study in this research proposing and testing a new optimal algorithm in performance and speed is suitable for caching of web objects with dynamic content through studying the conventional classic algorithms that are common in caching web pages and studying how they can deal with caching web pages that have dynamic contents due to their great importance and spread in web sites and what they cause of overload on web servers to get a new algorithm that performs an optimal performance in dialing with this type of web pages.
The shortest path problem can be categorized in to two different problems; single source shortest path problem (SSSP) and all pair shortest algorithm (APSP). In this paper, analysis and comparison between complexity of the famous shortest path al gorithms have been made, and the obtained results have shown that researchers have got remarkable success in designing better algorithms in the terms of time complexity to solve shortest path algorithms.
comments
Fetching comments Fetching comments
Sign in to be able to follow your search criteria
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا