|
|
تطبیق دامنه بدون نظارت با واگرایی برگمن و طبقهبند انطباقی
|
|
|
|
|
نویسنده
|
زندی فر مژده ,طهمورث نژاد جعفر
|
منبع
|
رايانش نرم و فناوري اطلاعات - 1399 - دوره : 9 - شماره : 3 - صفحه:27 -42
|
چکیده
|
در تشخیص الگو و طبقهبندی تصویر، فرض معمول بر این است که مجموعه آموزشی (دامنه منبع) و مجموعه تست (دامنه هدف) توزیع یکسانی را به اشتراک میگذارند که در اغلب کاربردهای دنیای واقعی نقض میشود. در اینصورت ممکن است مدلهای یادگیری سنتی بر روی مجموعههای آموزشی به درستی تعمیم داده نشوند. برای مقابله با این مشکل، یادگیری انتقالی و تطبیق دامنه، سعی میکنند با بهرهگیری از دادههای آموزشی با توزیع مشابه با دامنه منبع، مدل را برای دامنه هدف تعمیم دهند. در این مقاله، ما یک راه حل جدید برای رویارویی با تطبیق دامنه بدون نظارت برای طبقهبندی پیشنهاد میدهیم. در سناریو بدون نظارت که در آن هیچ نمونه برچسب دار از دامنه هدف موجود نیست، مدل ما دادهها را به گونهای تغییر میدهد که توزیع نمونههای دامنه منبع وهدف مشابه شوند. برای مقایسه دو توزیع، رویکرد ما از واگرایی برگمن استفاده میکند. با این وجود این رویکرد به تنهایی برای تعمیم مدل کافی نیست. در اینجا، ما یک مدل تطبیقپذیر برای یادگیری نمایش بهتر جهت مقابله با عدم توازن توزیع در دامنههای مختلف ارائه میدهیم. چارچوب مدل طبقهبندی با اضافه کردن یک طبقهبند سازگار برای طبقهبندی دامنه هدف تعمیم مییابد. بدینترتیب، این چارچوب تضمین کننده طبقهبندی دامنه هدف بوده و خطر ریسک تجربی در دامنه هدف را به حداقل میرساند و سازگاری هندسی با ساختار دادههای منبع را به حداکثر میرساند. مطالعه تجربی ما بر روی مجموعه دادههای معتبر موید این است که رویکرد پیشنهادی ما می تواند به طور مداوم دقت طبقهبندی را در مقایسه با الگوریتمهای یادگیری ماشین پایه و روشهای تطبیقدامنه بهبود دهد.
|
کلیدواژه
|
یادگیری انتقالی، واگرایی برگمن، کاهش ابعاد، طبقهبند انطباقی
|
آدرس
|
دانشگاه صنعتی ارومیه, دانشکده مهندسی فناوری اطلاعات و کامپیوتر, ایران, دانشگاه صنعتی ارومیه, دانشکده مهندسی فناوری اطلاعات و کامپیوتر, ایران
|
پست الکترونیکی
|
j.tahmores@it.uut.ac.ir
|
|
|
|
|
|
|
|
|
Unsupervised domain adaptation via Bregman Divergence minimization and Adaptive Classifier learning
|
|
|
Authors
|
Zandifar Mozhdeh ,Tahmoresnezhad Jafar
|
Abstract
|
In pattern recognition and image classification, the common assumption that the training set (source domain) and test set (target domain) share the same distribution is often violated in realworld applications. In this case, traditional learning models may not generalize well on test sets. To tackle this problem, domain adaptation try to exploit training data with same distribution from other related source domain to generalize model for target domain.This paper presents a domain adaptation method which learns to adapt the data distribution of the source domain to that of the target domain where no labeled data of the target domain is available. Our method jointly learns a low dimensional representation space and an adaptive classifier. In fact, we try to find a representation space and an adaptive classifier on this representation space such that the distribution gap between the two domains is minimized and the risk of the adaptive classifier is also minimized.In this paper, we propose a novel solution to tackle unsupervised domain adaptation for classification. In the unsupervised scenario where no labeled samples from the target domain is available, our model transforms data such that the source and target distributions become similar. To compare two distributions, our approaches make use of Bregman divergence. However, this does not suffice to generalize the model. Here, we propose to make better use model matching along with representation learning to tackle distribution mismatch across domains. The framework extends classification model by adding an adaptive classifier, which generalizes the target classifier far from the source data. Then this framework guarantees the target classifier minimizes the empirical risk in target domain and maximize manifold consistency with source data structure. Our empirical study on multiple open data sets validates that our proposed approach can consistently improve the classification accuracy compared to the basic machine learning and stateoftheart transfer learning methods.
|
Keywords
|
|
|
|
|
|
|
|
|
|
|
|