تم في نشرة سابقة تركيب خوارزمية استمرارية تنبؤية تصحيحية يمكنها حل مسائل أمثلة
مقيدة. كان التأليف بين توابع جزائية ناعمة مع استمرارية عددية، إضافة إلى وجوب استعمال منظومة
النشر اللاغرانجية من المركبات الأساسية في الخوارمية. و قد ظهر تحسين لهذه الخوارزمية في النشرة، حيث تم تناول الجزء التصحيحي من الخوارزمية بوساطة الجبر الخطي.
we constructed a continuation predictor- corrector algorithm that
solves constrained optimization problems. Smooth penalty functions combined
with numerical continuation, along with the use of the expanded Lagrangian
system, were essential components of the algorithm. An improvement of this
algorithm was published, which dealt with the linear algebra in the
corrector part of the algorithm.
Artificial intelligence review:
Research summary
يقدم هذا البحث خوارزمية هجينة تجمع بين الخوارزمية الجينية وخوارزمية الاستمرارية لحل مسائل التحسين المقيدة. تعتمد الخوارزمية على استخدام وظائف العقوبة الملساء مع الاستمرارية العددية ونظام لاغرانج الموسع. تم تحسين الخوارزمية الأصلية عن طريق استبدال خوارزمية BFGS بخوارزمية جينية لتحديد نقطة البداية على مسار العقوبة، مما أدى إلى تقليل عدد تقييمات الدالة بشكل كبير وتحسين أداء الخوارزمية. يتناول البحث أيضًا تطبيق الخوارزمية على مسائل برمجة غير خطية ومقارنتها مع خوارزميات أخرى موجودة، حيث أظهرت النتائج تفوق الخوارزمية الهجينة من حيث عدد تقييمات الدالة المطلوبة للوصول إلى الحل الأمثل.
Critical review
دراسة نقدية: يعتبر البحث مساهمة قيمة في مجال تحسين الخوارزميات لحل مسائل التحسين المقيدة. ومع ذلك، يمكن توجيه بعض النقد البناء لتحسين العمل المستقبلي. أولاً، لم يتم التطرق بشكل كافٍ إلى تأثير حجم العينة الأولية في الخوارزمية الجينية على الأداء العام. ثانيًا، قد يكون من المفيد تقديم مقارنة أكثر تفصيلًا بين الخوارزمية الهجينة والخوارزميات الأخرى من حيث الوقت الحسابي وليس فقط عدد تقييمات الدالة. أخيرًا، يمكن تحسين البحث من خلال دراسة تأثير معلمات الخوارزمية الجينية مثل معدل التهجين ومعدل الطفرة على النتائج النهائية.
Questions related to the research
-
ما هي المكونات الأساسية للخوارزمية الهجينة المقدمة في البحث؟
تتكون الخوارزمية الهجينة من استخدام وظائف العقوبة الملساء مع الاستمرارية العددية ونظام لاغرانج الموسع، بالإضافة إلى استبدال خوارزمية BFGS بخوارزمية جينية لتحديد نقطة البداية على مسار العقوبة.
-
ما هو الهدف الرئيسي من استبدال خوارزمية BFGS بخوارزمية جينية؟
الهدف الرئيسي هو تقليل عدد تقييمات الدالة المطلوبة لتحديد نقطة البداية على مسار العقوبة، مما يؤدي إلى تحسين أداء الخوارزمية بشكل عام.
-
كيف يتم تحديد نقطة البداية في الخوارزمية الهجينة؟
يتم تحديد نقطة البداية باستخدام خوارزمية جينية بدلاً من خوارزمية BFGS، حيث يتم إنشاء جيل أولي من الأفراد وتقييمهم باستخدام دالة العقوبة، ثم يتم اختيار الأفراد الأنسب لإنتاج جيل جديد عبر عمليات التهجين والطفرة.
-
ما هي النتائج التي توصل إليها البحث عند مقارنة الخوارزمية الهجينة مع الخوارزميات الأخرى؟
أظهرت النتائج أن الخوارزمية الهجينة تتفوق على الخوارزميات الأخرى من حيث عدد تقييمات الدالة المطلوبة للوصول إلى الحل الأمثل، مما يجعلها أكثر كفاءة وفعالية.
References used
Q. Al-Hassan, A variable order-variable stepsize continuation method for solving constrained optimization problems, Mu'tah J. for Research and Studies, vol. ٧, no.١, December ١٩٩٢, ppI٧٥-١٩٥
Q. Al-Hassan, On the solution of nonlinear programming problems with equality constraints via continuation using special LU factorization, J.of Info. And Opt. Sciences, vol. ١٤(١٩٩٣), no.٢, ppI٨٩-٢٠١
Q. Al-Hassan, On the solution of nonlinear programming problems via continuation using special LU factorization, J. of Info.And Opt.Sciences, vol.١٥ (١٩٩٤), no.٣, pp ٣٧٣-٣٨٦
Multi-objective evolutionary algorithms are used in a wide range
of fields to solve the issues of optimization, which require several
conflicting objectives to be considered together. Basic evolutionary
algorithm algorithms have several drawbacks,
Conjugate gradient algorithms are important for solving unconstrained optimization
problems, so that we present in this paper conjugate gradient algorithm depending on
improving conjugate coefficient achieving sufficient descent condition and globa
This work deals with a new method for solving Integer Linear Programming Problems depending on a previous methods for solving these problems, such that Branch and Bound method and Cutting Planes method where this new method is a combination between t
Nonlinear conjugate gradient (CG) method holds an important role in solving large-scale unconstrained optimization problems. In this paper, we suggest a new modification of CG coefficient �� that satisfies sufficient descent condition and possesses global convergence property under strong Wolfe line search. The numerical results show that our new method is more efficient compared with other CG formulas tested.
In this paper we offer a new interactive method for solving Multiobjective linear
programming problems. This method depends on forming the model for reducing the
relative deviations of objective functions from their ideal standard, and dealing with