ترغب بنشر مسار تعليمي؟ اضغط هنا

علم البيانات الضخمة مع تقنيات التعلم الآلي

Big Data with Machine Learning

2857   6   226   0 ( 0 )
 تاريخ النشر 2018
والبحث باللغة العربية
 تمت اﻹضافة من قبل asma nahas




اسأل ChatGPT حول البحث

في السنوات الأخيرة، تلقت معالجة الوقت الحرج (المعالجة في الوقت الحقيقي) وتحليل البيانات الكبيرة قدراً كبيراً من الاهتمام. فهناك العديد من المجالات التي يمكن فيها معالجة البيانات في الوقت الفعلي، حيث أن اتخاذ القرارات في الوقت المناسب يستطيع إنقاذ الآلاف من الأرواح البشرية، التقليل من مخاطر أرواح البشر والموارد، تعزيز نوعية حياة البشر، تعزيز فرص الربحية، وإدارة الموارد بفعالية. فتأتي هنا هذه الورقة التي تسّلط الضوء على هذا النوع من التطبيقات التحليلية للبيانات الكبيرة في الوقت الحقيقي وتصّنف تلك التطبيقات. بالإضافة إلى ذلك، فإنها تقدم نظرة عامة على البيانات الكبيرة لوصف المعرفة الأساسية في هذا المجال، فضلاً عن علاقة البيانات الكبيرة بتعلم الآلة وكيفية ربطهم سويًة لتحسين الأداء ورفع سويته.


ملخص البحث
تتناول هذه الورقة البحثية موضوع البيانات الكبيرة وتعلم الآلة، حيث تركز على كيفية معالجة وتحليل البيانات الكبيرة في الوقت الحقيقي. تبدأ الورقة بمقدمة توضح النمو السريع في حجم البيانات على مستوى العالم وأهمية تحليل هذه البيانات لاتخاذ قرارات فعالة. تستعرض الورقة خصائص البيانات الكبيرة مثل الحجم، السرعة، التنوع، الإيذائية، والقيمة. كما تناقش التحديات المرتبطة بمعالجة البيانات الكبيرة مثل جودة البيانات، الاكتشاف، التخزين، التحليلات، الأمن، ونقص الموهبة. تقدم الورقة نظرة عامة على تقنيات معالجة البيانات الكبيرة مثل Hadoop، وتشرح كيفية استخدام HDFS وYARN وMapReduce في معالجة البيانات. كما تستعرض الورقة خطوات التعلم الآلي وكيفية تطبيقها على البيانات الكبيرة، وتوضح العلاقة بين البيانات الكبيرة وتعلم الآلة. تختتم الورقة بتطبيقات البيانات الكبيرة في مجالات مختلفة مثل الرعاية الصحية، التصنيع، وسائل الإعلام والترفيه، إنترنت الأشياء، والحكومة، وتوضح كيف يمكن لهذه التطبيقات تحسين الكفاءة والإنتاجية وتقليل التكاليف.
قراءة نقدية
دراسة نقدية: تعتبر هذه الورقة البحثية شاملة ومفصلة في تناولها لموضوع البيانات الكبيرة وتعلم الآلة، حيث تقدم معلومات قيمة حول خصائص البيانات الكبيرة والتحديات المرتبطة بها. ومع ذلك، يمكن تحسين الورقة من خلال تقديم أمثلة عملية أكثر توضيحاً لكيفية تطبيق التقنيات المذكورة في سياقات حقيقية. كما أن الورقة تفتقر إلى مناقشة بعض الجوانب الأخلاقية المتعلقة باستخدام البيانات الكبيرة، مثل الخصوصية والأمان. بالإضافة إلى ذلك، يمكن تعزيز الورقة بإضافة دراسات حالة إضافية توضح الفوائد الفعلية لتطبيقات البيانات الكبيرة في مختلف المجالات.
أسئلة حول البحث
  1. ما هي الخصائص الخمس التي تحدد البيانات الكبيرة؟

    الخصائص الخمس هي الحجم، السرعة، التنوع، الإيذائية، والقيمة.

  2. ما هي التحديات الرئيسية في معالجة البيانات الكبيرة؟

    التحديات الرئيسية تشمل جودة البيانات، الاكتشاف، التخزين، التحليلات، الأمن، ونقص الموهبة.

  3. كيف يساعد Hadoop في معالجة البيانات الكبيرة؟

    Hadoop يساعد من خلال نظام الملفات الموزعة HDFS لتخزين البيانات الكبيرة ومعالجتها بالتوازي باستخدام YARN وMapReduce.

  4. ما هي بعض التطبيقات العملية للبيانات الكبيرة في مختلف المجالات؟

    تشمل التطبيقات العملية في مجالات الرعاية الصحية، التصنيع، وسائل الإعلام والترفيه، إنترنت الأشياء، والحكومة.


المراجع المستخدمة
https://www.edureka.co/blog/big-data-tutorial
https://www.coursera.org/learn/big-data-machine-learning
https://www.edureka.co/blog/big-data-applications-revolutionizing-various-domains/
https://docs.microsoft.com/en-us/sql/analysis-services/data-mining/discretizationmethods-data-mining?view=sql-analysis-services-2017
Salvador Garcı´a, Julia´n Luengo, Jose´ Antonio Sa´ ez, Victoria Lo´ pez, and Francisco Herrera A Survey of Discretization Techniques: Taxonomy and Empirical Analysis in Supervised Learning
Sergio Ramírez-Gallego, Salvador García Data discretization: taxonomy and big data challenge
Usama Fayyad,Keki Irani Multi interval discretization of continuous attributes for classification learning
https://www.edureka.co/blog/hadoop-tutorial/
قيم البحث

اقرأ أيضاً

يهدف التنقيب عن البيانات التعليمية إلى دراسة البيانات المتوفرة في المجال التعليمي وإخراج المعرفة المخفية منه بغية الاستفادة منها في تعزيز عملية التعليم واتخاذ قرارات ناجحة من شأنها تحسين الأداء الأكاديمي للطالب. تقترح هذه الدراسة استخدام تقنيات التنق يب عن البيانات لتحسين التنبؤ بأداء الطلاب، حيث تم تطبيق ثلاث خوارزميات تصنيف Naïve Bayes, J48, Support Vector Machine)) على قاعدة بيانات أداء الطلاب ، ثم تم تصميم مصنف جديد لدمج نتائج تلك المصنفات الفردية باستخدام تقنية الدمج Voting Method . تم استخدام الأداة WEKAالتي تدعم الكثير من خوارزميات و طرائق التنقيب في البيانات. تظهر النتائج أن مصنف الدمج لديه أعلى دقة للتنبؤ بمستويات الطلاب مقارنة بالمصنفات الأخرى ، حيث حقق دقة تعرف وصلت إلى74.8084 % . و أفادت خوارزمية العنقدةsimple k-means في تجميع الطلاب المتشابهين في مجموعات منفصلة بالتالي فهم مميزات كل مجموعة مما يساعد على قيادة وتوجيه كل مجموعة على حدى.
حظي مؤخرا اختصاص البيانات الضخمة باهتمام كبير في مجالات متنوعة منها (الطب , العلوم , الادارة, السياسة , ......) و يهتم هذا الاختصاص بدراسة مجموعة البيانات الضخمة والتي تعجز الادوات والطرق الشائعة على معالجتها و ادارتها و تنظيمها خلال فترة زمنية مقبو لة و بناء نموذج للتعامل مع هذه المعطيات والتنبؤ باغراض مطلوبة منها. ولاجراء هذه الدراسات ظهرت طرق عدة منها النماذج التي تعتمد على مجموعة من البيانات و نماذج تعتمد على المحاكاة و في هذه المقالة تم توضيح الفرق بين النموذجين و تطبيق نهج جديد يعتمد على التكامل بين النموذجين لاعطاء نموذح افضل لمعالجة مسالة البيوت البلاستيكة
اليوم، تتضمن المؤسسات الإعلامية الأخبار بانتظام مع القراء من خلال تمكينهم من التعليق على المقالات الإخبارية.هذا يخلق الحاجة إلى التعليق الاعتدال وإزالة التعليقات غير المسموح بها - وهي مهمة تستغرق وقتا طويلا في كثير من الأحيان أداءها المشرفين البشري.ف ي هذه الورقة، نقترب من مشكلة اعتدال تعليق الأخبار التلقائي كتصنيف للتعليقات في الفئات المحظورة وغير المحظورة.نبني مجموعة بيانات جديدة من تعليقات باللغة الإنجليزية المشروح، وتجربة نقل متصل بالتعليق، وتقييم العديد من نماذج التعلم الآلي على مجموعات بيانات الأخبار الكرواتية والإستونية.اسم الفريق: SuperAdmin؛التحدي: اكتشاف التعليقات المحظورة؛أدوات / نماذج: Brrosloen Bert، أرقى بيرت، 24sata تعليق DataSet، Ekspress تعليق DataSet.
من خلال دراستنا تم تطوير مكتبة برمجية HadoopOperationTesting تقدم لمختبري تطبيقات البيانات الضخمة آلية لاختبار تطبيقاتهم ضمن بيئة محاكية لبيئة Hadoop بآلية مشابهة لاختبار التطبيقات التقليدية باستخدام المكتبة JUnit.
انتشرت كلمة "البيانات الضخمة" في عام 2017 وأصبحت الأكثر شيوعًا في صناعة التكنولوجيا المتقدمة، حيث يستخدم التعلم الآلي الذي يسمح لأجهزة الكمبيوتر لتحليل البيانات السابقة والتنبؤ بالبيانات المستقبلية على نطاق واسع في الأماكن المألوفة. ويمكن لغير المتخص صين في التعلم الآلي استخدامه أيضًا. ولدراسة الطريقة التحليلية للتعلم الآلي الإحصائي لا بد من التعرف على مفهوم الذكاء الاصطناعي وتصنيفه الرئيسي والتقنيات التحليلية المتضمنة والمتمثلة في التعلم الالي والتعلم العميق. لقد تطور التعلم الآلي بفضل بعض الاختراقات في مجال الذكاء الاصطناعي . وهي ادراك كفاءة تعليم أجهزة الكمبيوتر اضافة الى اختراع الانترنت. ويبقى للشبكات العصبية دور مهم وضروري لتعليم أجهزة الكمبيوتر التفكير مثل البشر ، حيث تُستخدم هذه الشبكات البيانات التي يستطيعون الوصول إليها لاتخاذ القرارات. وتوجد العديد من الخوارزميات للتعرف على التعلم الالي ،وما نؤكد عليه في دراستنا إظهار طرق وتطبيقات التحليل الإحصائي الآلي ، مثل "تحليل الانحدار" و "شجرة القرارات" و "طريقة متوسط k" و"تحليل الرابطة"
التعليقات
جاري جلب التعليقات جاري جلب التعليقات
سجل دخول لتتمكن من متابعة معايير البحث التي قمت باختيارها
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا