|
|
انتخاب ویژگی نیمه نظارتی تُنک مبتنی بر منظم سازی هسین و آنالیز تشخیصی فیشر
|
|
|
|
|
نویسنده
|
شیخ پور راضیه
|
منبع
|
مهندسي برق دانشگاه تبريز - 1401 - دوره : 52 - شماره : 2 - صفحه:125 -135
|
چکیده
|
انتخاب ویژگی یکی از تکنیک های مهم در یادگیری ماشین و شناسایی الگو است که با حذف ویژگیهای نامناسب و انتخاب زیرمجموعه ای مفید از ویژگیها باعث اجتناب از بیش برازش در هنگام ساخت مدل، بهبود کارایی و سادگی مدل میشود. در بسیاری از کاربردها، تعیین برچسب دادهها هزینهبر بوده و مستلزم صرف زمان زیادی است، درحالیکه دادههای بدون برچسب به آسانی در دسترس هستند. بنابراین، استفاده از روشهای انتخاب ویژگی نیمهنظارتی که بتوانند در فرآیند انتخاب ویژگی از دادههای برچسبدار و بدون برچسب استفاده نمایند، بسیار ارزشمند است. در این مقاله، یک روش انتخاب ویژگی تُنک نیمهنظارتی مبتنی بر منظمسازی هسین و آنالیز تشخیصی فیشر پیشنهاد میشود که میتواند با استفاده از دادههای برچسبدار و اطلاعات توزیع و ساختار محلی دادههای برچسبدار و بدون برچسب مناسبترین ویژگیها را انتخاب نماید. در روش پیشنهادی، تابع هدفی مبتنی بر ماتریس پراکندگی نیمهنظارتی و نُرم- l2,1 برای انتخاب ویژگی ارائه میشود که از منظمسازی هسین و آنالیز تشخیصی فیشر در ساخت ماتریس پراکندگی نیمهنظارتی استفاده میکند و همبستگی بین ویژگیها را در هنگام انتخاب ویژگی در نظر میگیرد. برای حل تابع هدف پیشنهادی مبتنی بر منظمسازی هسین و آنالیز تشخیصی فیشر، الگوریتمی موثر با رویکرد تکراری به کار میرود و همگرایی آن به صورت تئوری و عملی اثبات میشود. نتایج بهدست آمده از آزمایشها بر روی پنج مجموعه داده حاکی از برتری روش پیشنهادی در مقایسه با دیگر روش های انتخاب ویژگی استفاده شده در این مقاله است.
|
کلیدواژه
|
انتخاب ویژگی نیمهنظارتی، مدل های تُنک، منظم سازی هسین، آنالیز تشخیصی فیشر، نُرم-l2
|
آدرس
|
دانشگاه اردکان, دانشکده فنی و مهندسی, گروه مهندسی کامپیوتر, ایران
|
پست الکترونیکی
|
rsheikhpour@ardakan.ac.ir
|
|
|
|
|
|
|
|
|
semi-supervised sparse feature selection based on hessian regularization and fisher discriminant analysis
|
|
|
Authors
|
sheikhpour razieh
|
Abstract
|
feature selection is one of the most important techniques in machine learning and pattern recognition, which eliminates redudant features and selects a suitable subset of features. this avoids overfitting when building the model and improves the model performance. in many applications, obtaining labeled data is costly and time consuming, while unlabeled data are readily available. therefore, semi-supervised feature selection methods can be used to consider both labeled and unlabeled data in the feature selection process. in this paper, a semi-supervised sparse feature selection method is proposed based on hessian regularization and fisher discriminant analysis which selects the appropriate features using the labeled data and the local structure of both labeled and unlabeled data. in the proposed method, an objective function based on semi-supervised scatter matrix and l2,1-norm is presented for feature selection which considers the correlation among features. to solve the proposed objective function, an iterative algorithm is used and its convergence is experimentally and theoretically proved. the results of the experiments on five data sets indicate that the proposed method improves the selection of relevant features compared to other methods used in this paper.
|
Keywords
|
semi-supervised feature selection; sparse models; hessian regularization; fisher discriminant analysis ,l2 ,1-norm
|
|
|
|
|
|
|
|
|
|
|