|
|
محاسبات لبه و معماری توزیع شده یادگیری ماشین
|
|
|
|
|
نویسنده
|
بابائی پیمان ,شهرستانی محمدرضا
|
منبع
|
دومين كنفرانس ملي كسب و كار نوين در مهندسي برق و كامپيوتر - 1402 - دوره : 2 - دومین کنفرانس ملی کسب و کار نوین در مهندسی برق و کامپیوتر - کد همایش: 02231-86821 - صفحه:0 -0
|
چکیده
|
برنامه های کاربردی یادگیری ماشین اغلب به خدمات ابری ارائه شده توسط شرکت ها متکی هستند. تجهیزات و سخت افزارهای لبه که این برنامه ها را اجرا می کنند، باید داده های دریافت شده از حسگرها را به مراکز داده منتقل کنند تا پردازش این حجم از داده ها که به توان محاسباتی بالایی نیاز دارد، توسط gpu یاtpu پردازش شده و نهایتا مدل آموزش داده شده برای ادامه روند کار برنامه به دستگاه مبداء بازگردانده شود. اگرچه این رویکرد، اجرای برنامه های کاربردی با توان محاسباتی بالا را بر روی تجهیزات و سخت افزارهای لبه امکان پذیر می کند، اما دارای معایب و الزاماتی است که در همه حالات نمی توان آنها را برآورده کرد. سیر تکامل یادگیری ماشین، افزایش حجم و پیچیدگی مدل های یادگیری ماشین را در چند سال گذشته نشان می دهد. مدل های پیشرفته چندین برابر، پارامترهای بیشتری نسبت به مدل های اولیه دارند و این روند، پیاده سازی مدل ها در تجهیزات دارای حافظه و توان پردازشی محدود را دشوارتر می کند. بنابراین، از دیدگاه یادگیری ماشین، این چالش وجود دارد که اندازه مدل باید کوچک شود و در عین حال، دقت مدل نیز بهبود یابد. اخیرا با بکارگیری معماری توزیع شده یادگیری ماشین بر روی تجهیزات لبه، انتقال داده ها کاملاً حذف می شود و تنها بر روی نحوه پردازش داده ها در همان تجهیزات لبه متمرکز می شود. معماری توزیع شده یادگیری ماشین یک زمینه نوظهور در یادگیری ماشین بر روی تجهیزات لبه است. لذا با مطالعه تکنیکهای یادگیری ماشین و با درنظر گرفتن محدودیت های میکروکنترلرها و تجهیزات لبه، ارائه یک معماری توزیع شده میتواند راه کاری برای حل این چالش باشد.
|
کلیدواژه
|
محاسبات لبه، معماری توزیع شده، یادگیری ماشین، تجهیزات لبه، محاسبات ابری.
|
آدرس
|
, iran, , iran
|
پست الکترونیکی
|
sh.mohamadreza96@gmail.com
|
|
|
|
|
|
|
|
|
edge computing and distributed machine learning architecture
|
|
|
Authors
|
|
Abstract
|
machine learning applications often rely on cloud services provided by companies. edge equipment and hardware that run these programs must transfer the data received from the sensors to the data centers to process this volume of data, which requires high computing power, to be processed by the gpu or tpu and finally the trained model should be sent back to the source device to continue the application process. although this approach enables the execution of high computing applications on edge devices and hardware, it has disadvantages and requirements that must be met in all cases that they cannot be met. the evolution of machine learning shows the increase in the volume and complexity of machine learning models in the past few years. advanced models have many times more parameters than the basic models, and this trend, the implementation of the model makes it more difficult in equipment with limited memory and processing power. therefore, from the point of view of machine learning, there is a challenge that the size of the model should be reduced and at the same time, the accuracy of the model should be improved. recently, by applying distributed learning architecture machine at the edge equipment completely eliminates data transfer and focuses only on how data is processed at the same edge equipment. distributed machine learning architecture is an emerging field in machine learning on edge devices. therefore, by studying machine learning techniques and considering the limitations of microcontrollers and edge equipment, providing a distributed architecture can be a way to solve this challenge.
|
Keywords
|
edge computing ,distributed architecture ,machine learning ,edge equipment ,cloud computing
|
|
|
|
|
|
|
|
|
|
|