في السنوات الأخيرة، تلقت معالجة الوقت الحرج (المعالجة في الوقت الحقيقي) وتحليل البيانات الكبيرة قدراً كبيراً من الاهتمام.
فهناك العديد من المجالات التي يمكن فيها معالجة البيانات في الوقت الفعلي، حيث أن اتخاذ القرارات في الوقت المناسب
يستطيع إنقاذ الآلاف من الأرواح البشرية، التقليل من مخاطر أرواح البشر والموارد، تعزيز نوعية حياة البشر، تعزيز فرص
الربحية، وإدارة الموارد بفعالية. فتأتي هنا هذه الورقة التي تسّلط الضوء على هذا النوع من التطبيقات التحليلية للبيانات الكبيرة
في الوقت الحقيقي وتصّنف تلك التطبيقات. بالإضافة إلى ذلك، فإنها تقدم نظرة عامة على البيانات الكبيرة لوصف المعرفة
الأساسية في هذا المجال، فضلاً عن علاقة البيانات الكبيرة بتعلم الآلة وكيفية ربطهم سويًة لتحسين الأداء ورفع سويته.
In recent years, time-critical processing or real-time processing and analytics of bid data have received a significant amount of attentions. There are many areas/domains where real-time processing of data and making timely decision can save thousands of human lives, minimizing the risks of human lives and resources, enhance the quality of human lives, enhance the chance of profitability, efficient resources management etc. This paper has presented such type of real-time big data analytic applications and a classification of those applications. In addition, it presents the time requirements of each type of these applications along with its significant benefits. Also, a general overview of big data to describe a background knowledge on this scope.
Artificial intelligence review:
Research summary
تتناول هذه الورقة البحثية موضوع البيانات الكبيرة وتعلم الآلة، حيث تركز على كيفية معالجة وتحليل البيانات الكبيرة في الوقت الحقيقي. تبدأ الورقة بمقدمة توضح النمو السريع في حجم البيانات على مستوى العالم وأهمية تحليل هذه البيانات لاتخاذ قرارات فعالة. تستعرض الورقة خصائص البيانات الكبيرة مثل الحجم، السرعة، التنوع، الإيذائية، والقيمة. كما تناقش التحديات المرتبطة بمعالجة البيانات الكبيرة مثل جودة البيانات، الاكتشاف، التخزين، التحليلات، الأمن، ونقص الموهبة. تقدم الورقة نظرة عامة على تقنيات معالجة البيانات الكبيرة مثل Hadoop، وتشرح كيفية استخدام HDFS وYARN وMapReduce في معالجة البيانات. كما تستعرض الورقة خطوات التعلم الآلي وكيفية تطبيقها على البيانات الكبيرة، وتوضح العلاقة بين البيانات الكبيرة وتعلم الآلة. تختتم الورقة بتطبيقات البيانات الكبيرة في مجالات مختلفة مثل الرعاية الصحية، التصنيع، وسائل الإعلام والترفيه، إنترنت الأشياء، والحكومة، وتوضح كيف يمكن لهذه التطبيقات تحسين الكفاءة والإنتاجية وتقليل التكاليف.
Critical review
دراسة نقدية: تعتبر هذه الورقة البحثية شاملة ومفصلة في تناولها لموضوع البيانات الكبيرة وتعلم الآلة، حيث تقدم معلومات قيمة حول خصائص البيانات الكبيرة والتحديات المرتبطة بها. ومع ذلك، يمكن تحسين الورقة من خلال تقديم أمثلة عملية أكثر توضيحاً لكيفية تطبيق التقنيات المذكورة في سياقات حقيقية. كما أن الورقة تفتقر إلى مناقشة بعض الجوانب الأخلاقية المتعلقة باستخدام البيانات الكبيرة، مثل الخصوصية والأمان. بالإضافة إلى ذلك، يمكن تعزيز الورقة بإضافة دراسات حالة إضافية توضح الفوائد الفعلية لتطبيقات البيانات الكبيرة في مختلف المجالات.
Questions related to the research
-
ما هي الخصائص الخمس التي تحدد البيانات الكبيرة؟
الخصائص الخمس هي الحجم، السرعة، التنوع، الإيذائية، والقيمة.
-
ما هي التحديات الرئيسية في معالجة البيانات الكبيرة؟
التحديات الرئيسية تشمل جودة البيانات، الاكتشاف، التخزين، التحليلات، الأمن، ونقص الموهبة.
-
كيف يساعد Hadoop في معالجة البيانات الكبيرة؟
Hadoop يساعد من خلال نظام الملفات الموزعة HDFS لتخزين البيانات الكبيرة ومعالجتها بالتوازي باستخدام YARN وMapReduce.
-
ما هي بعض التطبيقات العملية للبيانات الكبيرة في مختلف المجالات؟
تشمل التطبيقات العملية في مجالات الرعاية الصحية، التصنيع، وسائل الإعلام والترفيه، إنترنت الأشياء، والحكومة.
References used
https://www.edureka.co/blog/big-data-tutorial
https://www.coursera.org/learn/big-data-machine-learning
https://www.edureka.co/blog/big-data-applications-revolutionizing-various-domains/
https://docs.microsoft.com/en-us/sql/analysis-services/data-mining/discretizationmethods-data-mining?view=sql-analysis-services-2017
Salvador Garcı´a, Julia´n Luengo, Jose´ Antonio Sa´ ez, Victoria Lo´ pez, and Francisco Herrera A Survey of Discretization Techniques: Taxonomy and Empirical Analysis in Supervised Learning
Sergio Ramírez-Gallego, Salvador García Data discretization: taxonomy and big data challenge
Usama Fayyad,Keki Irani Multi interval discretization of continuous attributes for classification learning
https://www.edureka.co/blog/hadoop-tutorial/
Educational data mining aims to study the available data in the educational field and extract the hidden knowledge from it in order to benefit from this knowledge in enhancing the education process and making successful decisions that will improve th
حظي مؤخرا اختصاص البيانات الضخمة باهتمام كبير في مجالات متنوعة منها (الطب , العلوم , الادارة, السياسة , ......)
و يهتم هذا الاختصاص بدراسة مجموعة البيانات الضخمة والتي تعجز الادوات والطرق الشائعة على معالجتها و ادارتها و تنظيمها خلال فترة زمنية مقبو
Today, news media organizations regularly engage with readers by enabling them to comment on news articles. This creates the need for comment moderation and removal of disallowed comments -- a time-consuming task often performed by human moderators.
Through our study, the HadoopOperationTesting software library
has been developed to provide Big Data applications labs with a
mechanism to test their applications in a simulated environment for
the Hadoop environment with a similar mechanism to test
traditional applications using the JUnit library.
The word "massive data" spread in 2017 and became the most common in the industry of advanced technology, it uses automated learning that allows computers to analyze past data and predict future data widely in familiar places. Non-automated learning