>
Fa   |   Ar   |   En
   ارائه دو روش برای حل مسائل بهینه سازی محدب و نامحدب ناهموار  
   
نویسنده بالاسیدقصیر مریم
منبع اولين كنفرانس بين المللي دوسالانه هوش مصنوعي و علوم داده - 1403 - دوره : 1 - اولین کنفرانس بین المللی دوسالانه هوش مصنوعی و علوم داده - کد همایش: 03231-85169 - صفحه:0 -0
چکیده    در این مقاله، مسئله بهینه سازی مقید با دو دسته قیود در نظر گرفته شده است. در بخش اول این مقاله، تابع هدف ناهموار و محدب بوده و همه قیود محدب ناهموار فرضشده اند. در روش اول، ترکیبی از روش جریمه (مریسون) با روش بهینه سازی نامقید نلدرمید ارائه می شود. این روشکارایی بالایی نسبت به روش های مشابه داشته و در عین حال پیاده سازی آن نیز آسانتر است. در بخشدوم روشی برای حل مسائل نامحدب و ناهموار ارائه شده است. در این روش، از توابع هموارساز و گرادیان های تعمیم یافته استفاده می شود. درروش مذکور، تابع هدف به یک تابع محدب و هموار تبدیل شده و قیود ناهموار نیز هموار می شوند. در این روش بجای پارامتر جریمه در مقاله بایان از یک کنترل کننده استفاده می کنیم. با بکارگیری این کنترل کننده محاسبات عملیاتی کمتر شده و عملاً سرعت همگرایی افزایش می یابد. برتری شبکه عصبی بازگشتی پیشنهادی این است که در بسیاری از حالت ها، به ازای نقاط اولیه خارج از ناحیه شدنی نیز جواب بهینه حاصل می شود.
کلیدواژه بهینه سازی ناهموار، شبکه عصبی مصنوعی، بهینه سازی نامحدب.
آدرس , iran
پست الکترونیکی maryam1983.gasir@gmail.com
 
   two methods for solving nonsmooth, nonconvex constrained minimization  
   
Authors
Abstract    in the study of this paper, the problem of constrained optimization with two sets of constraints is considered.in the first section the objective function is nonsmooth and convex, and all convex constraints are assumed to be nonsmooth. in the first method, a combination of the penalty method (merrison) with the nelder-mead unconstrained optimization method is presented. this method is more efficient than similar methods and at the same time it is easier to implement. in the second method,the objective function is nonsmooth and convex, and all convex constraints are assumed to be nonsmooth. smoothing functions and generalized gradients are used. in this method, the objective function is transformed into a convex and smooth function. in the second method, instead of the penalty parameter, we use a controller in the statement article. by using this controller, the operational calculations are reduced and the convergence speed is practically increased. the advantage of the proposed methods is that if the starting point of the system is taken from the feasible region, then the rest of the states will remain in the feasible region over time, but in some cases the absorption region may be larger than the feasible region and per points initially out of range, the system converges to the equilibrium point in this case.
Keywords nonsmooth optimization ,neural network (nn) ,nonconvex optimization
 
 

Copyright 2023
Islamic World Science Citation Center
All Rights Reserved