Do you want to publish a course? Click here

Caching dynamic data for web applications

التخزين المؤقت لصفحات الويب الديناميكية

1007   0   34   0 ( 0 )
 Publication date 2015
and research's language is العربية
 Created by Shamra Editor




Ask ChatGPT about the research

We study in this research proposing and testing a new optimal algorithm in performance and speed is suitable for caching of web objects with dynamic content through studying the conventional classic algorithms that are common in caching web pages and studying how they can deal with caching web pages that have dynamic contents due to their great importance and spread in web sites and what they cause of overload on web servers to get a new algorithm that performs an optimal performance in dialing with this type of web pages.


Artificial intelligence review:
Research summary
تتناول هذه الدراسة اقتراح واختبار خوارزمية جديدة تهدف إلى تحسين أداء وسرعة التخزين المؤقت لصفحات الويب ذات المحتوى الديناميكي. يتم ذلك من خلال دراسة الخوارزميات التقليدية المستخدمة في هذا المجال وتحليل مدى ملاءمتها للتعامل مع هذه الصفحات التي تسبب حملاً كبيراً على مخدمات الويب. الخوارزمية المقترحة تهدف إلى تحقيق أداء أمثل في التعامل مع هذه الصفحات من خلال تخزين أجزاء الصفحات الديناميكية بشكل مؤقت لتقليل الحمل على المخدمات وتحسين زمن الاستجابة. تتألف البنية المقترحة من مخزن بيانات سلبي يحتوي على أجزاء الصفحات، وواجهة تخزين مؤقت موزعة تسمح بالوصول إلى هذه الأجزاء. تم اختبار الخوارزمية من خلال برنامج محاكاة وأظهرت النتائج أنها تقلل بشكل كبير من الحمل على المخدم وزمن الاستجابة، مما يجعلها مناسبة للتطبيق في مخدمات الويب التي تحتوي على صفحات ديناميكية وغير ديناميكية.
Critical review
دراسة نقدية: على الرغم من أن الدراسة تقدم حلاً مبتكراً لمشكلة التخزين المؤقت لصفحات الويب الديناميكية، إلا أنها قد تكون معقدة من حيث التنفيذ الفعلي في بيئات الويب الكبيرة والمتنوعة. البنية المقترحة تعتمد على وجود مخزن بيانات سلبي وواجهة تخزين مؤقت موزعة، مما قد يتطلب موارد إضافية وإدارة معقدة. كما أن الخوارزمية تعتمد بشكل كبير على تحديث البيانات التوصيفية Metadata، وهو ما قد يكون مكلفاً حسابياً في البيئات ذات الحمل العالي. بالإضافة إلى ذلك، لم تتناول الدراسة بشكل كافٍ كيفية التعامل مع الأمان والخصوصية عند تخزين البيانات الديناميكية، وهو جانب مهم يجب مراعاته في تطبيقات الويب الحديثة.
Questions related to the research
  1. ما هي المشكلة الرئيسية التي تعالجها الدراسة؟

    المشكلة الرئيسية هي تحسين أداء وسرعة التخزين المؤقت لصفحات الويب ذات المحتوى الديناميكي لتقليل الحمل على مخدمات الويب وتحسين زمن الاستجابة.

  2. ما هي الفوائد الرئيسية للخوارزمية المقترحة؟

    الفوائد الرئيسية تشمل تقليل الحمل على المخدم، تحسين زمن الاستجابة، وتوفير الموارد من خلال تخزين أجزاء الصفحات الديناميكية بشكل مؤقت.

  3. ما هي المكونات الأساسية للبنية المقترحة؟

    المكونات الأساسية تشمل مخزن بيانات سلبي يحتوي على أجزاء الصفحات وواجهة تخزين مؤقت موزعة تسمح بالوصول إلى هذه الأجزاء.

  4. كيف تم اختبار فعالية الخوارزمية المقترحة؟

    تم اختبار فعالية الخوارزمية من خلال برنامج محاكاة باستخدام لغة C#.Net، وأظهرت النتائج أنها تقلل بشكل كبير من الحمل على المخدم وزمن الاستجابة.


References used
Abdulla, G; Fox, E. A; Abrams, M; Williams, S. Www proxy traffic characterization with application to caching. Mar 1998
Abrams, M; Standbridge, C.R; Abdulla, G; Williams, S; Fox, E. A. Caching Proxies: Limitations and Potentials. Boston Conference, Dec 1995
Bestavros, A; Carter, R; Crovella, M; Cunha, C; Heddaya, A; Mirdad, S. Application Level Document Caching in the Internet. June 1995
rate research

Read More

In the few recent years, besides the traditional web a new web has appeared. It is called the Web of Linked Data. It has been developed to present data in a machinereadable form. The main idea is to describe data using a set of terms called web ont ology. At this time, tools and standards related to the semantic web are becoming comprehensive and stable; however, publishing university data as linked data still faces some major challenges. First of all, there is no unified, well-accepted vocabulary for describing university-related information. This article aims to find the ontology which could be used to describe the data in the university domain, so it could be possible to integrate this data with data from other universities and do queries on it. The web ontology was built by reusing the available vocabularies on the web and adding new classes and properties. The ontology has been organized by using Protégé.
The company structure is a method based on the modeling for analysis; planning, design, and management the information technique to promote process in order to take the right decision. Thus, the structure of the company's models must include info rmation for each company in order to achieve cooperation between them and the exchange of information among its services, so the company structure need the support from several models, but the establishment of such models is expensive and without a fixed value. It is advisable to find models that support actually what to achieve, especially with the development of modern technology that pay the companies increasingly towards Web services exchange. To overcome these problems, we present a model based on serviceoriented, which allows the exchange of information and assembly services provided by different companies in a dynamic way taking into account the context of cooperation, and organize a coordinated and coherent services chain, thus provides a way to exchange information and interaction of commercial services between companies.
Understanding the semantic meaning of content on the web through the lens of entities and concepts has many practical advantages. However, when building large-scale entity extraction systems, practitioners are facing unique challenges involving findi ng the best ways to leverage the scale and variety of data available on internet platforms. We present learnings from our efforts in building an entity extraction system for multiple document types at large scale using multi-modal Transformers. We empirically demonstrate the effectiveness of multi-lingual, multi-task and cross-document type learning. We also discuss the label collection schemes that help to minimize the amount of noise in the collected data.
Part of a 2017 Master’s Degree in Web Science research, which includes the definition of marketing intelligence in an expanded theoretical study, the method of building an Internet-based system as a data source, processing methodology, and applied results.
Web search is an essential way for humans to obtain information, but it's still a great challenge for machines to understand the contents of web pages. In this paper, we introduce the task of web-based structural reading comprehension. Given a web pa ge and a question about it, the task is to find an answer from the web page. This task requires a system not only to understand the semantics of texts but also the structure of the web page. Moreover, we proposed WebSRC, a novel Web-based Structural Reading Comprehension dataset. WebSRC consists of 400K question-answer pairs, which are collected from 6.4K web pages with corresponding HTML source code, screenshots, and metadata. Each question in WebSRC requires a certain structural understanding of a web page to answer, and the answer is either a text span on the web page or yes/no. We evaluate various strong baselines on our dataset to show the difficulty of our task. We also investigate the usefulness of structural information and visual features. Our dataset and baselines have been publicly available.
comments
Fetching comments Fetching comments
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا