|
|
روش پیشتعلیم لایهبهلایه دوسویه برای تعلیم شبکههای عصبی عمیق
|
|
|
|
|
نویسنده
|
سیدصالحی زهره ,سیدصالحی علی
|
منبع
|
هوش محاسباتي در مهندسي برق - 1394 - دوره : 6 - شماره : 2 - صفحه:1 -10
|
چکیده
|
در این مقاله، یک روش پیش تعلیم دوسویه برای همگرا نمودن تعلیم شبکه های عصبی عمیق با یادگیری دیگرانجمنی ارائه شده است. تعلیم این شبکه ها به دلیل مواجه بودن با تعداد بالای کمینه های موضعی اغلب همگرا نمی گردد. این در حالی است که با مقداردهی اولیه مناسب وزن های شبکه، می توان از بسیاری از کمینه های موضعی اجتناب نمود. روش پیش تعلیم لایه به لایه دوسویه روشی سریع و کارا می باشد که در یک مسیر دوسویه به طور جلوسو و عقب سو با استفاده از ورودی ها و خروجی های مطلوب شبکه، به تنظیم مقادیر اولیه وزن های آن می پردازد. برای این منظور از تعلیم شبکه های کمکی یک لایه پنهان مبتنی بر وزن های لایه تحت پیش تعلیم از شبکه عمیق و وزن های کمکی استفاده می شود. سپس مقادیر وزن حاصل از تعلیم اینها در ساختار اصلی شبکه تحت پیش تعلیم قرار داده می شوند و برای تنظیم دقیق وزن ها، تعلیم یکپارچه صورت می گیرد. این روش برای پیش تعلیم وزن های سه شبکه عصبی عمیق بازشناس فرد، حالت های احساسی و ارقام دستنوشتار مورد استفاده قرار گرفت و نشان داده شد که با به کارگیری این روش پیش تعلیم، سرعت همگرایی تعلیم به طور چشمگیری افزایش می یابد. همچنین میزان بازشناسی ها در پایگاه داده های چهره به میزان قابل توجهی بهبود می یابد که حاکی از افزایش قدرت تعمیم شبکه با استفاده از این روش می باشد.
|
کلیدواژه
|
پیش تعلیم، دوسویه، دیگرانجمنی، ساختار عمیق، شبکههای عصبی چند لایه، همگرایی تعلیم
|
آدرس
|
دانشگاه صنعتی امیرکبیر, دانشکده مهندسی پزشکی, ایران, دانشگاه صنعتی امیرکبیر, دانشکده مهندسی پزشکی, ایران
|
پست الکترونیکی
|
ssalehi@aut.ac.ir
|
|
|
|
|
|
|
|
|
Bidirectional Layerbylayer Pretraining Method
|
|
|
Authors
|
Seyyedsalehi Zohreh ,Seyyedsalehi Ali
|
Abstract
|
In this paper, a bidirectional pretraining method for initializing weights of heteroassociative deep neural network was presented. Training of deep neural networks, because of confrontation with a large number of local minima, is not often converged. This is while through proper initializing weights instead of random values at the beginning of the training; it is possible to avoid many local minima. The bidirectional layerbylayer pretraining method pretrain weights in forward and backward manners in parallel. Afterwards, the weight values resulted from their training are applied in the deep neural network. The bidirectional layerbylayer pretraining was applied for pretraining of the classifier deep neural network weights, and revealed that both the training speed and the recognition rate were improved in Bosphorus and CK+ databases.
|
Keywords
|
Bidirectional ,Deep Architecture ,Heteroassociative ,Learning Convergence ,Multilayer Neural Network ,Pretraining.
|
|
|
|
|
|
|
|
|
|
|