>
Fa   |   Ar   |   En
   ارائه روشی مقاوم در برابر حملات تخاصمی با استفاده از فرایندهای گوسی مقیاس‌پذیر و رای‌گیری  
   
نویسنده صفایانی مهران ,شالبافان پویان ,احمدی هاشم ,فلاح علی آبادی مهدیه ,میرزائی عبدالرضا
منبع مهندسي برق و مهندسي كامپيوتر ايران - 1400 - دوره : 19 - شماره : 4 - صفحه:275 -288
چکیده    در سال‌های اخیر، مسئله‌ای تحت عنوان آسیب‌پذیری مدل‌های مبتنی بر یادگیری ماشین مطرح گردیده است که نشان می‌دهد مدل‌های یادگیری در مواجهه با آسیب‌پذیری‌ها از مقاومت بالایی برخوردار نیستند. یکی از معروف‌ترین آسیب‌ها یا به بیان دیگر حملات، تزریق مثال‌های تخاصمی به مدل می‌باشد که در این مورد، شبکه‌های عصبی و به ویژه شبکه‌های عصبی عمیق بیشترین میزان آسیب‌پذیری را دارند. مثال‌های تخاصمی، از طریق افزوده‌شدن اندکی نویز هدفمند به مثال‌های اصلی تولید می‌شوند، به طوری که از منظر کاربر انسانی تغییر محسوسی در داده‌ها مشاهده نمی‌شود اما مدل‌های یادگیری ماشینی در دسته‌بندی داده‌ها به اشتباه می‌افتند. یکی از روش‌های موفق جهت مدل‌کردن عدم قطعیت در داده‌ها، فرایندهای گوسی هستند که چندان در زمینه مثال‌های تخاصمی مورد توجه قرار نگرفته‌اند. یک دلیل این امر می‌تواند حجم محاسباتی بالای این روش‌ها باشد که کاربردشان در مسایل واقعی را محدود می‌کند. در این مقاله از یک مدل فرایند گوسی مقیاس‌پذیر مبتنی بر ویژگی‌های تصادفی بهره گرفته شده است. این مدل علاوه بر داشتن قابلیت‌های فرایندهای گوسی از جهت مدل‌کردن مناسب عدم قطعیت در داده‌ها، از نظر حجم محاسبات هم مدل مطلوبی است. سپس یک فرایند مبتنی بر رای‌گیری جهت مقابله با مثال‌های تخاصمی ارائه می‌گردد. همچنین روشی به نام تعیین ارتباط خودکار به منظور اعمال وزن بیشتر به نقاط دارای اهمیت تصاویر و اعمال آن در تابع هسته فرایند گوسی پیشنهاد می‌گردد. در بخش نتایج نشان داده شده که مدل پیشنهادشده عملکرد بسیار مطلوبی در مقابله با حمله علامت گرادیان سریع نسبت به روش‌های رقیب دارد.
کلیدواژه شبکه‌های عصبی، فرایندهای گوسی، فرایندهای گوسی مقیاس‌پذیر، مثال‌های تخاصمی
آدرس دانشگاه صنعتی اصفهان, دانشکده مهندسی برق و کامپیوتر, ایران, دانشگاه صنعتی اصفهان, دانشکده مهندسی برق و کامپیوتر, ایران, دانشگاه صنعتی اصفهان, دانشکده مهندسی برق و کامپیوتر, ایران, دانشگاه صنعتی اصفهان, دانشکده مهندسی برق و کامپیوتر, ایران, دانشگاه صنعتی اصفهان, دانشکده مهندسی برق و کامپیوتر, ایران
پست الکترونیکی mirzaei@iut.ac.ir
 
   Proposing a Robust Method Against Adversarial Attacks Using Scalable Gaussian Process and Voting  
   
Authors Safayani Mehran ,Shalbafan Pooyan ,Ahmadi سید هاشم ,فلاح علی آبادی Mahdieh ,Mirzaei Abdolreza
Abstract    In recent years, the issue of vulnerability of machine learningbased models has been raised, which shows that learning models do not have high robustness in the face of vulnerabilities. One of the most wellknown defects, or in other words attacks, is the injection of adversarial examples into the model, in which case, neural networks, especially deep neural networks, are the most vulnerable. Adversarial examples are generated by adding a little purposeful noise to the original examples so that from the human user's point of view there is no noticeable change in the data, but machine learning models make mistakes in categorizing the data. One of the most successful methods for modeling data uncertainty is Gaussian processes, which have not received much attention in the field of adversarial examples. One reason for this could be the high computational volume of these methods, which limits their used in the real issues. In this paper, a scalable Gaussian process model based on random features has been used. This model, in addition to having the capabilities of Gaussian processes for proper modeling of data uncertainty, is also a desirable model in terms of computational cost. A votingbased process is then presented to deal with adversarial examples. Also, a method called automatic relevant determination is proposed to weight the important points of the images and apply them to the kernel function of the Gaussian process. In the results section, it is shown that the proposed model has a very good performance against fast gradient sign attack compared to competing methods.
Keywords
 
 

Copyright 2023
Islamic World Science Citation Center
All Rights Reserved