>
Fa   |   Ar   |   En
   معماری یک شتاب‌دهنده بازپیکربند برای شبکه‌های عصبی عمیق جهت افزایش بهره‌وری  
   
DOR 20.1001.2.9920026053.1399.1.1.13.2
نویسنده دربانی پریا ,رهبانی نظام ,لطفی‌کامران پژمان ,بیت‌الهی حاکم
منبع دومين كنفرانس ملي انفورماتيك ايران - 1399 - دوره : 2 - کنفرانس ملی انفورماتیک ایران - کد همایش: 99200-26053
چکیده    شبکه‌های عصبی عمیق به طور گسترده در کاربردهای هوش مصنوعی از جمله پردازش تصویر استفاده میشوند. حجم زیاد داده‌ها و تعداد محاسبات بالا از ویژگی‌های اجرای این شبکه‌هاست. به دلیل محدودیت ظرفیت‌های سخت‌افزاری، در طول اجرای یک مدلِ یادگیری ماشین ، داده‌ها دسته‌دسته از حافظه فراخوانی می‌شوند. بسته به تعداد منابع محاسباتی موجود، عملیات بر روی آن‌ها انجام می‌شود سپس نوبت دسته بعدی می‌رسد. این شبکه‌ها از چندین لایه تشکیل شده‌اند که هر لایه نسبت به دیگر لایه‌ها اندازه منحصربه‌فرد و متفاوتی دارد. اندازه ابعاد شتاب‌دهنده بر مبنای میانگینی از اندازه تمام لایه‌های شبکه عصبی عمیق تعیین می‌شود. هنگام اجرای برخی از لایه‌ها به دلیل عدم همپوشانی کامل آن لایه با ابعاد پردازنده، تعدادی از منابع بی‌استفاده باقی‌می‌مانند. یعنی در کنار کمبود منابع محاسباتی، اختلاف اندازه لایه‌های شبکه عصبی با ابعاد شتاب‌دهنده، مانع از دستیابی به حداکثر کارآیی می‌شود. معماری بازپیکربند پیشنهادی، مشکل بی‌استفاده ماندن منابع را بهبود داده و در برخی موارد کاملا برطرف کرده‌است. در این معماری قابلیت بازپیکربندی امکان تغییر ابعاد پردازنده و نزدیک شدنش به ابعاد هر لایه را فراهم می‌کند. کاهش تعداد منابع بی‌استفاده، منجر به افزایش سرعت محاسبات (به طور متوسط %17) و کاهش دفعات دسترسی به حافظه داخلی (حدود %13) می‌شود. در شتاب‌دهنده پیشنهادی بین هر ستون از عناصر پردازشی یک واحد بازپیکربند قرار دارد که مساحت سخت‌افزاری هر کدام از این واحدهاکوچکتر از یک عنصرپردازشی است
کلیدواژه شبکه عصبی عمیق ,مدل یادگیری ماشین ,شتاب‌دهنده ,منابع بی‌استفاده ,معماری بازپیکربند ,عناصرپردازشی بی‌استفاده
آدرس دانشگاه علم و صنعت, ایران, پژوهشگاه دانش‌های بنیادی, ایران, پژوهشگاه دانش‌های بنیادی, ایران, دانشگاه علم و صنعت, ایران
پست الکترونیکی beitollahi@iust.ac.ir
 
     
   
Authors
  
 
 

Copyright 2023
Islamic World Science Citation Center
All Rights Reserved