Do you want to publish a course? Click here

New Hybrid Conjugate Gradient Method with Global Convergence Properties for Unconstrained Optimization

طريقة هجينة جديدة لطرق التدرج المترافق لحل الامثلية الغير مقيدة

2060   0   49   0.0 ( 0 )
 Publication date 2018
  fields Mathematics
and research's language is العربية
 Created by محمد حموده




Ask ChatGPT about the research

Nonlinear conjugate gradient (CG) method holds an important role in solving large-scale unconstrained optimization problems. In this paper, we suggest a new modification of CG coefficient �� that satisfies sufficient descent condition and possesses global convergence property under strong Wolfe line search. The numerical results show that our new method is more efficient compared with other CG formulas tested.


Artificial intelligence review:
Research summary
تقدم هذه الورقة طريقة جديدة للتدرج المترافق (CG) لحل مشاكل التحسين غير المقيدة على نطاق واسع. يقترح المؤلفون تعديلًا جديدًا لمعامل CG β الذي يحقق شرط الهبوط الكافي ويمتلك خاصية التقارب العالمي تحت بحث خط وولف القوي. تظهر النتائج العددية أن الطريقة الجديدة أكثر كفاءة مقارنةً بالطرق الأخرى المختبرة. تتضمن الورقة تحليلًا نظريًا لخاصية التقارب العالمي والشرط الكافي للهبوط، بالإضافة إلى نتائج تجريبية تُظهر أداء الطريقة المقترحة مقارنةً بطرق CG التقليدية مثل FR وPRP وWYL وDPRP. يتم اختبار الطريقة على مجموعة متنوعة من دوال الاختبار بأبعاد مختلفة، وتظهر النتائج أن الطريقة الجديدة تحقق أداءً ممتازًا من حيث عدد التكرارات والوقت المستغرق على وحدة المعالجة المركزية.
Critical review
دراسة نقدية: تقدم الورقة إسهامًا مهمًا في مجال تحسين التدرج المترافق، ولكن هناك بعض النقاط التي يمكن تحسينها. أولاً، كان من الممكن تقديم مزيد من التفاصيل حول كيفية اختيار المعاملات الأولية وتأثيرها على الأداء. ثانيًا، على الرغم من أن النتائج التجريبية مشجعة، فإن الاختبارات قد تكون محدودة في نطاقها وتحتاج إلى تطبيقات أكثر تنوعًا للتحقق من فعالية الطريقة في سياقات مختلفة. أخيرًا، كان من الممكن تقديم مقارنة أكثر تفصيلًا مع طرق تحسين أخرى غير التدرج المترافق لتقديم صورة شاملة عن أداء الطريقة الجديدة.
Questions related to the research
  1. ما هو الهدف الرئيسي من هذه الورقة؟

    الهدف الرئيسي هو تقديم طريقة جديدة للتدرج المترافق لحل مشاكل التحسين غير المقيدة مع تحقيق شرط الهبوط الكافي وخاصية التقارب العالمي.

  2. ما هي الخاصية الجديدة التي يقترحها المؤلفون في معامل β؟

    يقترح المؤلفون تعديلًا جديدًا لمعامل β يحقق شرط الهبوط الكافي ويمتلك خاصية التقارب العالمي تحت بحث خط وولف القوي.

  3. كيف تم تقييم أداء الطريقة الجديدة؟

    تم تقييم الأداء من خلال اختبارات عددية على مجموعة متنوعة من دوال الاختبار بأبعاد مختلفة، وتمت مقارنة النتائج مع طرق التدرج المترافق التقليدية.

  4. ما هي النتائج الرئيسية التي توصلت إليها الورقة؟

    النتائج الرئيسية تشير إلى أن الطريقة الجديدة أكثر كفاءة من الطرق التقليدية من حيث عدد التكرارات والوقت المستغرق على وحدة المعالجة المركزية.


References used
Dai, Y.-H., and Yuan, Y. (1999). A nonlinear conjugate gradient method with a strong global convergence property. SIAM Journal on optimization, 10(1), 177-182.
Dai, Z., and Wen, F. (2012). Another improved Wei–Yao–Liu nonlinear conjugate gradient method with sufficient descent property. Applied Mathematics and Computation, 218(14), 7421-7430.
Dolan, E. D., and Moré, J. J. (2002). Benchmarking optimization software with performance profiles. Mathematical programming, 91(2), 201-213
Hamoda, M., Mamat, M., Rivaie, M., and Salleh, Z. (2016). A Conjugate Gradient Method with Strong Wolfe-Powell Line Search for Unconstrained Optimization. Applied Mathematical Sciences, 10(15), 721-734.
rate research

Read More

Conjugate gradient algorithms are important for solving unconstrained optimization problems, so that we present in this paper conjugate gradient algorithm depending on improving conjugate coefficient achieving sufficient descent condition and globa l convergence by doing hybrid between the two conjugate coefficients [1] and [2]. Numerical results show the efficiency of the suggested algorithm after its application on several standard problems and comparing it with other conjugate gradient algorithms according to number of iterations, function value and norm of gradient vector.
Multi-objective evolutionary algorithms are used in a wide range of fields to solve the issues of optimization, which require several conflicting objectives to be considered together. Basic evolutionary algorithm algorithms have several drawbacks, such as lack of a good criterion for termination, and lack of evidence of good convergence. A multi-objective hybrid evolutionary algorithm is often used to overcome these defects.
we constructed a continuation predictor- corrector algorithm that solves constrained optimization problems. Smooth penalty functions combined with numerical continuation, along with the use of the expanded Lagrangian system, were essential compone nts of the algorithm. An improvement of this algorithm was published, which dealt with the linear algebra in the corrector part of the algorithm.
In this paper we offer a new interactive method for solving Multiobjective linear programming problems. This method depends on forming the model for reducing the relative deviations of objective functions from their ideal standard, and dealing with the unsatisfying deviations of objective functions by reacting with decision maker. The results obtained from using this method were compared with many interactive methods as (STEM Method[6] – Improvement STEM Method[7] – Matejas-peric Method[8]). Numerical results indicate that the efficiency of purposed method comparing with the obtained results by using that methods at initial solution point and the other interactive points with decision maker.
The majority of recent digital signature algorithms depend, in their structure, on complicated mathematical concepts that require a long time and a significant computational effort to be executed. As a trial to reduce these problems, some researchers have proposed digital signature algorithms which depend on simple arithmetic functions and operations that are executed quickly, but that was at the expense of the security of algorithms.

suggested questions

comments
Fetching comments Fetching comments
Sign in to be able to follow your search criteria
mircosoft-partner

هل ترغب بارسال اشعارات عن اخر التحديثات في شمرا-اكاديميا