|
|
پردازش تصویر بیندامنهای با استفاده از تحلیل تفکیک خطی و تطبیق دامنه مبتنیبر نمونه
|
|
|
|
|
نویسنده
|
زندی فر مژده ,طهمورث نژاد جعفر
|
منبع
|
پردازش علائم و داده ها - 1398 - شماره : 3 - صفحه:129 -148
|
|
|
چکیده
|
پردازش تصویر روشی برای اعمال برخی عملیات ها بر روی یک تصویر است به طوری که با استفاده از آن، تصاویری با کیفیت بالاتر به دست آمده یا برخی اطلاعات مفید از تصویر استخراج می شود. الگوریتم های سنتی پردازش تصویر در شرایطی که تصاویر آموزشی (دامنه منبع) که برای یاددهی مدل استفاده می شوند، توزیع متفاوتی از تصاویر آزمایش (دامنه هدف) داشته باشند، نمی توانند عملکرد خوبی داشته باشند. با اینحال، بسیاری از برنامههای کاربردی دنیای واقعی بهعلت کمبود دادههای برچسبدار آموزشی دارای محدودیت هستند؛ ازاینرو از دادههای برچسبدار دامنههای دیگر استفاده میکنند. بهاین ترتیب بهخاطر اختلاف توزیع بین دامنههای منبع و هدف، طبقهبند یادگرفته شده براساس مجموعه آموزشی بر روی دادههای آزمایشی عملکرد ضعیفی خواهد داشت. یادگیری انتقالی و انطباق دامنه، با بهکارگیری مجموعهدادههای موجود دو راه حل برجسته برای مقابله با این چالش هستند، و حتی با وجود اختلاف توزیع قابل ملاحظه بین دامنهها میتوانند دانش را از دامنههای مرتبط به دامنه هدف انتقال دهند. فرض اصلی در مساله تغییر دامنه این است که توزیع حاشیهای یا توزیع شرطی دادههای منبع و هدف متفاوت باشد. تطبیق دامنه بهطور صریح با استفاده از معیار فاصله ازپیش تعیینشده تفاوت در توزیع حاشیهای، توزیع شرطی یا هر دو توزیع را کاهش میدهد. در این مقاله، ما به یک سناریوی چالشبرانگیز میپردازیم که در آن تصاویر دامنههای منبع و هدف در توزیعهای حاشیهای متفاوت بوده و تصاویر هدف دارای برچسب نیستند. بیشتر روشهای قبلی دو استراتژی یادگیری تطابق ویژگیها و وزندهی مجدد نمونهها را بهطور مستقل برای تطبیق دامنهها مورد بررسی قرار دادهاند. در این مقاله، ما نشان میدهیم زمانی که تفاوت دامنهها بهطور قابل توجهی بزرگ باشد، هر دو استراتژی مهم و اجتنابناپذیر هستند. روش پیشنهادی ما تحت عنوان تطبیق دامنه مبتنیبر نمونه برای طبقهبندی تصاویر (daic)، یک فرایند کاهش بُعد بوده که با کاهش اختلاف توزیع تصاویر آموزشی و آزمایشی و بهکارگیری همزمان تطابق ویژگیها و وزندهی مجدد کارایی مدل را افزایش میدهد. ما با گسترش واگرایی برگمن غیرخطی برای اندازهگیری تفاوت توزیع حاشیهای و اعمال آن به الگوریتم کاهش بعد آنالیز تفکیک خطی فیشر، از آن برای ساخت یک نمایش ویژگی موثر و قوی برای تفاوتهای توزیع قابل ملاحظه بین دامنهها استفاده میکنیم؛ همچنین، daic از مزیت برچسبگذاری اولیه برای دادههای هدف بهصورت تکرارشونده برای همگرایی مدل استفاده میکند. آزمایشهای گسترده ما نشان میدهد که daic بهطور قابل توجهی بهتر از الگوریتمهای یادگیری ماشین پایه و دیگر روشهای یادگیری انتقالی در نُه مجموعه داده بصری تحت سناریوهای مختلف عمل میکند.
|
کلیدواژه
|
پردازش تصویر، یادگیری انتقالی، واگرایی برگمن، کاهش اختلاف توزیع حاشیهای، کاهش ابعاد
|
آدرس
|
دانشگاه صنعتی ارومیه, دانشکده مهندسی فناوری اطلاعات و کامپیوتر, ایران, دانشگاه صنعتی ارومیه, دانشکده مهندسی فناوری اطلاعات و کامپیوتر, ایران
|
پست الکترونیکی
|
j.tahmores@it.uut.ac.ir
|
|
|
|
|
|
|
|
|
Sample-oriented Domain Adaptation for Image Classification
|
|
|
Authors
|
Tahmoresnezhad Jafar ,Zandifar Mozhdeh
|
Abstract
|
Image processing is a method to perform some operations on an image, in order to get an enhanced image or to extract some useful information from it. The conventional image processing algorithms cannot perform well in scenarios where the training images (source domain) that are used to learn the model have a different distribution with test images (target domain). Also, many real world applications suffer from a limited number of training labeled data and therefore benefit from the related available labeled datasets to train the model. In this way, since there is the distribution difference across the source and target domains (domain shift problem), the learned classifier on the training set might perform poorly on the test set. Transfer learning and domain adaptation are two outstanding solutions to tackle this challenge by employing available datasets, even with significant difference in distribution and properties, to transfer the knowledge from a related domain to the target domain. The main assumption in domain shift problem is that the marginal or the conditional distribution of the source and the target data is different. Distribution adaptation explicitly minimizes predefined distance measures to reduce the difference in the marginal distribution, conditional distribution, or both. In this paper, we address a challenging scenario in which the source and target domains are different in marginal distributions, and the target images have no labeled data. Most prior works have explored two following learning strategies independently for adapting domains: feature matching and instance reweighting. In the instance reweighting approach, samples in the source data are weighted individually so that the distribution of the weighted source data is aligned to that of the target data. Then, a classifier is trained on the weighted source data. This approach can effectively eliminate unrelated source samples to the target data, but it would reduce the number of samples in adapted source data, which results in an increase in generalization errors of the trained classifier. Conversely, the featuretransform approach creates a feature map such that distributions of both datasets are aligned while both datasets are well distributed in the transformed feature space. In this paper, we show that both strategies are important and inevitable when the domain difference is substantially large. Our proposed using sampleoriented Domain Adaptation for Image Classification (DAIC) aims to reduce the domain difference by jointly matching the features and reweighting the instances across images in a principled dimensionality reduction procedure, and construct new feature representation that is invariant to both the distribution difference and the irrelevant instances. We extend the nonlinear Bregman divergence to measure the difference in marginal, and integrate it with Fisher rsquo;s linear discriminant analysis (FLDA) to construct feature representation that is effective and robust for substantial distribution difference. DAIC benefits pseudo labels of target data in an iterative manner to converge the model. We consider three types of crossdomain image classification data, which are widely used to evaluate the visual domain adaptation algorithms: object (Office+Caltech 256), face (PIE) and digit (USPS, MNIST). We use all three datasets prepared by and construct 34 crossdomain problems. The OfficeCaltech256 dataset is a benchmark dataset for crossdomain object recognition tasks, which contains 10 overlapping categories from following four domains: Amazon (A), Webcam (W), DSLR (D) and Caltech256 (C). Therefore 4 times; 3 = 12 cross domain adaptation tasks are constructed, namely A rarr; W, ..., C rarr; D. USPS (U) and MNIST (M) datasets are widely used in computer vision and pattern recognition tasks. We conduct two handwriting recognition tasks, i.e., uspsmnist and mnistusps. PIE is a benchmark dataset for face detection task and has 41,368 face images of size 3232 from 68 individuals. The images were taken by 13 synchronized cameras and 21 flashes, under varying poses, illuminations, and expressions. PIE dataset consists five subsets depending on the different poses as follows: PIE1 (C05, left pose), PIE2 (C07, upward pose), PIE3 (C09, downward pose), PIE4 (C27, frontal pose), PIE5 (C29, right pose). Thus, we can construct 20 cross domain problems, i.e., P1 rarr; P2, P1 rarr; P3, ..., P5 rarr; P4. We compare our proposed DAIC with two baseline machine learning methods, i.e., NN, Fisher linear discriminant analysis (FLDA) and nine stateoftheart domain adaptation methods for image classification problems (TSL, DAM, TJM, FIDOS and LRSR). Due to these methods are considered as dimensionality reduction approaches, we train a classifier on the labeled training data (e.g., NN classifier), and then apply it on test data to predict the labels of the unlabeled target data. DAIC efficiently preserves and utilizes the specific information among the samples from different domains. The obtained results indicate that DAIC outperforms several state oftheart adaptation methods even if the distribution difference is substantially large.
|
Keywords
|
Image processing ,Transfer learning ,Bregman divergence ,Marginal distribution difference reduction ,Dimensionality reduction
|
|
|
|
|
|
|
|
|
|
|