|
|
فیلتر غیرخطی تطبیقی عصبی شناساگر با نرخ آموزش بهینه برای همگرایی پارامترها بر پایه گرادیان نزولی
|
|
|
|
|
نویسنده
|
علیبخشی فاطمه ,تشنهلب محمد ,علیبخشی مهدی ,منثوری محمد
|
منبع
|
هوش محاسباتي در مهندسي برق - 1394 - دوره : 6 - شماره : 2 - صفحه:75 -86
|
چکیده
|
بحث همگرایی در شبکه های عصبی شناساگر و کنترل کننده یکی از موارد پراهمیت در مهندسی کنترل می باشد، که در این راستا تحقیقات متنوعی صورت پذیرفته است که عمدتاً در چهار چوب شبکه های عصبی معمولی بوده است. در این مقاله الگوریتم گرادیان نزولی تطبیقی با یادگیری پارامترهای شبکه عصبی چند لایه بصورت بهنگام بر اساس بسط سری تیلور خطای خروجی مطرح و همگرایی الگوریتم آموزشی بررسی شده است . برای افزایش دقت و سرعت همگرایی ، جمله های مرتبه دوم و بالاتر بسط سری تیلور با استفاده از گرادیان نزولی بروز رسانی می شود . الگوریتم آموزشی معرفی شده برای دو مثال شبیه سازی شده است . نتایج شبیه سازی کاهش خطا و افزایش سرعت همگرایی را نشان می دهند .
|
کلیدواژه
|
الگوریتم گرادیان نزولی، بسط سری تیلور، شبکه عصبی ، همگرایی
|
آدرس
|
دانشگاه آزاد اسلامی واحد تهران جنوب, دانشکده فنی و مهندسی, ایران, دانشگاه صنعتی خواجه نصیرالدین طوسی, دانشکده برق و کامپیوتر, گروه کنترل, ایران, دانشگاه آزاد اسلامی واحد بروجرد, باشگاه پژوهشگران جوان و نخبگان, ایران, دانشگاه صنعتی خواجه نصیرالدین طوسی, دانشکده برق و کامپیوتر, ایران
|
پست الکترونیکی
|
mohammad.mansouri@ee.kntu.ac.ir
|
|
|
|
|
|
|
|
|
Nonlinear Adaptive Neural Identifier Filter with Optimal Learning Rate for Converging of Parameters based on Gradient Descent
|
|
|
Authors
|
alibakhshi fatemeh ,teshnehlab mohammad ,alibakhshi mehdi ,mansouri mohammad
|
Abstract
|
The convergence of learning rate in neural networks identifier and controller is one of challenging issues which attracts great interest from researchers. This paper suggests the adaptive gradient descent algorithm with learning laws which assures the convergence of multilayer perceptron neural network based on Taylor series expansion of output error. In the proposed method the learning rate can be calculated online. To increase the accuracy and the speed of convergence, the second and higher order terms of the Taylor series expansion are not considered constant and are updated during the algorithm. Simulating the suggested algorithm on two examples reveals that with considering the bounds in the proposed method, the aims for learning rate, convergence of learning algorithm are guaranteed and the speed of convergence of training algorithm is increased.
|
Keywords
|
Convergence ,Gardient Descent Algorithm ,Neural Network ,Online ,Taylor Series Expansion.
|
|
|
|
|
|
|
|
|
|
|