|
|
یادگیری آنلاین الگوهای مثبت و منفی به همراه توضیحپذیری مبتنی بر بسط هسته
|
|
|
|
|
نویسنده
|
اسمعیلی حسین ,غیاثی شیرازی کمال الدین ,هراتی احد
|
منبع
|
مهندسي برق و الكترونيك ايران - 1402 - دوره : 20 - شماره : 1 - صفحه:67 -77
|
چکیده
|
مسئله طبقهبندی همچنان جزو مسائل مورد بحث خیلی از مقالات روز میباشد. اغلب مدلهای ارائه شده در مقالات، از عدم توضیح دلیلی قابل درک برای انسان رنج میبرند. یکی از روشهای ایجاد توضیحپذیری، تفکیک وزنهای شبکه به دو بخش مثبت و منفی مبتنی بر الگو میباشد. بخش مثبت نمایانگر وزنهای مربوط به کلاس درست و بخش منفی نمایانگر وزنهایی که به اشتباه به کلاس مذکور نسبت داده شدهاند. به این شبکه، شبکهی wta مبتنی بر فاصله اقلیدسی مثبت و منفی یا ed-wta± گفته میشود. در این مقاله با استفاده از بسط هسته علاوه بر دستیابی به توضیحپذیری محلی، دقت بالاتری به نسبت مقالهی موجود به واسطهی مدل سازی غیرخطی کسب شده است. روشهایی در این مقاله به منظور بهبود فضای زمانی و فضای الگوریتم ارائه خواهد شد. همچنین از روش نیستروم برای تقریب هسته به منظور مقیاس پذیر شدن الگوریتم در برابر مجموعهدادگان حجیم استفاده شده است. با استفاده از این شبکه تکلایه در مجموعه دادگان mnist دقت 98.01% بر روی دادگان آزمون کسب شده است و با استفاده از بسط هسته دلایل استدلال را نیز به خوبی با دادگان ورودی شرح میدهد. همچنین توضیحپذیری بر روی مجموعه دادگان feret دو کلاسه بررسی شده است.
|
کلیدواژه
|
روشهای هسته، توضیحپذیری، یادگیری مبتنی بر الگو
|
آدرس
|
دانشگاه فردوسی مشهد, دانشکده مهندسی کامپیوتر, ایران, دانشگاه فردوسی مشهد, دانشکده مهندسی کامپیوتر, ایران, دانشگاه فردوسی مشهد, دانشکده مهندسی کامپیوتر, ایران
|
پست الکترونیکی
|
a.harati@um.ac.ir
|
|
|
|
|
|
|
|
|
online learning of positive and negative prototypes with explanations based on kernel expansion
|
|
|
Authors
|
esmaeli hossein ,ghiasi-shirazi kamaledin ,harati ahad
|
Abstract
|
the issue of classification is still a topic of discussion in many current articles. most of the models presented in the articles suffer from a lack of explanation for a reason comprehensible to humans. one way to create explainability is to separate the weights of the network into positive and negative parts based on the prototype. the positive part represents the weights of the correct class and the negative part represents the weights that are incorrectly assigned to that class. this network is called the winner-takes-all network based on the positive and negative euclidean distance or ± ed-wta. in this paper, using the kernel expansions and achieving local explainability, higher accuracy has been achieved in this field through nonlinear modeling. methods in this paper will be presented to improve the temporal and spatial space of the algorithm. the article also uses the nystrom method to approximate kernel to scale the algorithm against large datasets. using this single-layer network and the gaussian kernel function, 98.01% accuracy is obtained on the test data on the mnist dataset, and it also explains the reasons of decision well with the input data using kernel expansions. explainability has also been investigated on two classes feret dataset.
|
Keywords
|
kernel methods ,explainability ,prototype-based learning
|
|
|
|
|
|
|
|
|
|
|