Do you want to publish a course? Click here

A Hybrid Genetic-Continuation Algorithm for Solving Constrained Optimization Problems

خوارزمية جينية استمرارية لحل مسائل أمثلة مقيدة

1537   0   12   0 ( 0 )
 Publication date 2001
  fields Mathematics
and research's language is العربية
 Created by Shamra Editor




Ask ChatGPT about the research

we constructed a continuation predictor- corrector algorithm that solves constrained optimization problems. Smooth penalty functions combined with numerical continuation, along with the use of the expanded Lagrangian system, were essential components of the algorithm. An improvement of this algorithm was published, which dealt with the linear algebra in the corrector part of the algorithm.


Artificial intelligence review:
Research summary
يقدم هذا البحث خوارزمية هجينة تجمع بين الخوارزمية الجينية وخوارزمية الاستمرارية لحل مسائل التحسين المقيدة. تعتمد الخوارزمية على استخدام وظائف العقوبة الملساء مع الاستمرارية العددية ونظام لاغرانج الموسع. تم تحسين الخوارزمية الأصلية عن طريق استبدال خوارزمية BFGS بخوارزمية جينية لتحديد نقطة البداية على مسار العقوبة، مما أدى إلى تقليل عدد تقييمات الدالة بشكل كبير وتحسين أداء الخوارزمية. يتناول البحث أيضًا تطبيق الخوارزمية على مسائل برمجة غير خطية ومقارنتها مع خوارزميات أخرى موجودة، حيث أظهرت النتائج تفوق الخوارزمية الهجينة من حيث عدد تقييمات الدالة المطلوبة للوصول إلى الحل الأمثل.
Critical review
دراسة نقدية: يعتبر البحث مساهمة قيمة في مجال تحسين الخوارزميات لحل مسائل التحسين المقيدة. ومع ذلك، يمكن توجيه بعض النقد البناء لتحسين العمل المستقبلي. أولاً، لم يتم التطرق بشكل كافٍ إلى تأثير حجم العينة الأولية في الخوارزمية الجينية على الأداء العام. ثانيًا، قد يكون من المفيد تقديم مقارنة أكثر تفصيلًا بين الخوارزمية الهجينة والخوارزميات الأخرى من حيث الوقت الحسابي وليس فقط عدد تقييمات الدالة. أخيرًا، يمكن تحسين البحث من خلال دراسة تأثير معلمات الخوارزمية الجينية مثل معدل التهجين ومعدل الطفرة على النتائج النهائية.
Questions related to the research
  1. ما هي المكونات الأساسية للخوارزمية الهجينة المقدمة في البحث؟

    تتكون الخوارزمية الهجينة من استخدام وظائف العقوبة الملساء مع الاستمرارية العددية ونظام لاغرانج الموسع، بالإضافة إلى استبدال خوارزمية BFGS بخوارزمية جينية لتحديد نقطة البداية على مسار العقوبة.

  2. ما هو الهدف الرئيسي من استبدال خوارزمية BFGS بخوارزمية جينية؟

    الهدف الرئيسي هو تقليل عدد تقييمات الدالة المطلوبة لتحديد نقطة البداية على مسار العقوبة، مما يؤدي إلى تحسين أداء الخوارزمية بشكل عام.

  3. كيف يتم تحديد نقطة البداية في الخوارزمية الهجينة؟

    يتم تحديد نقطة البداية باستخدام خوارزمية جينية بدلاً من خوارزمية BFGS، حيث يتم إنشاء جيل أولي من الأفراد وتقييمهم باستخدام دالة العقوبة، ثم يتم اختيار الأفراد الأنسب لإنتاج جيل جديد عبر عمليات التهجين والطفرة.

  4. ما هي النتائج التي توصل إليها البحث عند مقارنة الخوارزمية الهجينة مع الخوارزميات الأخرى؟

    أظهرت النتائج أن الخوارزمية الهجينة تتفوق على الخوارزميات الأخرى من حيث عدد تقييمات الدالة المطلوبة للوصول إلى الحل الأمثل، مما يجعلها أكثر كفاءة وفعالية.


References used
Q. Al-Hassan, A variable order-variable stepsize continuation method for solving constrained optimization problems, Mu'tah J. for Research and Studies, vol. ٧, no.١, December ١٩٩٢, ppI٧٥-١٩٥
Q. Al-Hassan, On the solution of nonlinear programming problems with equality constraints via continuation using special LU factorization, J.of Info. And Opt. Sciences, vol. ١٤(١٩٩٣), no.٢, ppI٨٩-٢٠١
Q. Al-Hassan, On the solution of nonlinear programming problems via continuation using special LU factorization, J. of Info.And Opt.Sciences, vol.١٥ (١٩٩٤), no.٣, pp ٣٧٣-٣٨٦
rate research

Read More

Multi-objective evolutionary algorithms are used in a wide range of fields to solve the issues of optimization, which require several conflicting objectives to be considered together. Basic evolutionary algorithm algorithms have several drawbacks, such as lack of a good criterion for termination, and lack of evidence of good convergence. A multi-objective hybrid evolutionary algorithm is often used to overcome these defects.
Conjugate gradient algorithms are important for solving unconstrained optimization problems, so that we present in this paper conjugate gradient algorithm depending on improving conjugate coefficient achieving sufficient descent condition and globa l convergence by doing hybrid between the two conjugate coefficients [1] and [2]. Numerical results show the efficiency of the suggested algorithm after its application on several standard problems and comparing it with other conjugate gradient algorithms according to number of iterations, function value and norm of gradient vector.
This work deals with a new method for solving Integer Linear Programming Problems depending on a previous methods for solving these problems, such that Branch and Bound method and Cutting Planes method where this new method is a combination between t hem and we called it Cut and Branch method. The reasons which led to this combination between Cutting Planes method and Branch and Bound method are to defeat from the drawbacks of both methods and especially the big number of iterations and the long time for the solving and getting of a results between the results of these methods where the Cut and Branch method took the good properties from the both methods. And this work deals with solving a one problem of Integer Linear Programming Problems by Branch and Bound method and Cutting Planes method and the new method, and we made a programs on the computer for solving ten problems of Integer Linear Programming Problems by these methods then we got a good results and by that, the new method (Cut and Branch) became a good method for solving Integer Linear Programming Problems. The combination method which we doing in this research opened a big and wide field in solving Integer Linear Programming Problems and finding the best solutions for them where we did the combination method again between the new method (Cut and Branch) and the Cutting Planes method then we got a new method with a very good results and solutions.
Nonlinear conjugate gradient (CG) method holds an important role in solving large-scale unconstrained optimization problems. In this paper, we suggest a new modification of CG coefficient �� that satisfies sufficient descent condition and possesses global convergence property under strong Wolfe line search. The numerical results show that our new method is more efficient compared with other CG formulas tested.
In this paper we offer a new interactive method for solving Multiobjective linear programming problems. This method depends on forming the model for reducing the relative deviations of objective functions from their ideal standard, and dealing with the unsatisfying deviations of objective functions by reacting with decision maker. The results obtained from using this method were compared with many interactive methods as (STEM Method[6] – Improvement STEM Method[7] – Matejas-peric Method[8]). Numerical results indicate that the efficiency of purposed method comparing with the obtained results by using that methods at initial solution point and the other interactive points with decision maker.

suggested questions

comments
Fetching comments Fetching comments
Sign in to be able to follow your search criteria
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا