|
|
بهینهسازی تخصیص منابع مه در اینترنت اشیا با رویکرد یادگیری تقویتی عمیق
|
|
|
DOR
|
20.1001.2.0020193782.1400.1.1.10.8
|
نویسنده
|
چمنی دانوش ,وفایی پارسا ,موحدی زهرا
|
منبع
|
وب پژوهي - 1400 - دوره : 7 - هفتمین کنفرانس بین المللی وب پژوهی - کد همایش: 00201-93782
|
چکیده
|
محاسبات مه یک پارادایم نوظهور است که مفهوم ابر را تا لبه گسترش می دهد. این پارادایم، منابع محاسباتی، ذخیره سازی، کنترل و قابلیتهای شبکه را برای تحقق برنامههای کاربردی اینترنت اشیا فراهم میکند. در مفهوم محاسبات مه، دستگاههای اینترنت اشیا، داده ها و محاسبات پیچیده را به گرههای مه در اطرافشان بارگذاری میکنند. در این مقاله، به مسئلهی تخصیص بهینه منابع محدود گرههای مه به برنامههای اینترنت اشیا میپردازیم. در واقع، مسئلهی تخصیص منابع را می توان به صورت یک سیستم تصمیمگیری آنلاین در نظر گرفت که در آن گرههای مه باید تصمیم بگیرند که آیا درخواستهای دریافتی از دستگاههای اینترنت اشیا را به صورت محلی پردازش کنند یا آنها را به گرههای ابر در فواصل دور فرستند. رویکردهای کنونی برای تخصیص منابع مه از انطباق پذیری کافی در محیطهای دارای نویز و عدم قطعیت برخوردار نیستند. به همین منظور، وجود الگوریتمهای متکی به یادگیری در این حوزه امری ضروری است. در این مقاله، در مرحلهی اول مسئله تخصیص منابع مه به عنوان یک فرایند تصمیم گیری مارکوف مدلسازی شده است. سپس روشی بر پایهی رویکرد یادگیری تقویتی عمیق جهت حل این مسئله پیشنهاد شده است. در واقع، بر اساس الگوریتم گرادیان سیاست، گرههای مه یاد میگیرند که چگونه وظایف iot را به روشی بهینه برنامهریزی کنند.روش پیشنهادی با رویکرد غیر یادگیری مقایسه شده است که در آن وظایف بر اساس طول اجرایشان و بدون در نظر گرفتن اولویت وظایف، به گرههای مه تخصیص داده میشوند. نتایج بهدستآمده با توجه به پاداش تجمعی در طول فرایند اجرای الگوریتم پیشنهادی، حاکی از یادگیری سیاست تخصیص منابع بهصورت برخط است. این امر منجر به بهبود معیارهای میانگین تاخیر و میانگین تاخیر در شرایط سخت برای سیستمی با اولویتهای مختلف وظایف، در مقایسه با روش غیر یادگیری میشود.
|
کلیدواژه
|
محاسبات مه ,تخصیص منابع ,اینترنت اشیا ,یادگیری تقویتی عمیق ,عملگر-نقاد
|
آدرس
|
پردیس فارابی، دانشگاه تهران, ایران, پردیس فارابی، دانشگاه تهران, ایران, پردیس فارابی، دانشگاه تهران, ایران
|
پست الکترونیکی
|
zmovahedi@ut.ac.ir
|
|
|
|
|
|
|
|
|
Optimization of fog resource allocation in IoT using Deep Reinforcement Learning
|
|
|
Authors
|
|
Abstract
|
Fog computing is an emerging paradigm that extends the cloud concept to the edge. It provides computing, storage, control, and networking capabilities for realizing the Internet of Things (IoT) applications. In the fog computing concept, the IoT devices offload its data or computationally expensive tasks to the fog nodes within its proximity, instead of distant cloud. In this paper, we address the problem of optimal allocating the limited resources of fog nodes to the IoT applications. Current approaches of fog resource allocation are not sufficiently adaptable in noisy and uncertain environments. Using learning-based algorithms is therefore essential. Resource allocation problem can be considered as an online decision-making system where fog nodes should decide whether processing locally the receiving requests from IoT devices or sending them to distant cloud nodes. We model the fog resource allocation problem as a Markov decision process and solve it by the Deep reinforcement learning approach. Based on policy-gradient algorithm, fog nodes learn how to schedule the IoT tasks in an optimal way. The proposed method is compared with the non-learning approach in which tasks are assigned to fog nodes based on their length and without the consideration of task priority. The obtained results, according to the cumulative reward during the implementation process of the proposed algorithm, indicate that the resource allocation policy has been learned online. This improves the average slowdown and average slowdown in difficult conditions for a system with different task priorities, when compared to the non-learning method.
|
Keywords
|
محاسبات مه ,تخصیص منابع ,اینترنت اشیا ,یادگیری تقویتی عمیق ,عملگر-نقاد
|
|
|
|
|
|
|
|
|
|
|