>
Fa   |   Ar   |   En
   انتخاب ویژگی نیمه‌ نظارتی تُنک مبتنی بر منظم ‌سازی هسین و آنالیز تشخیصی فیشر  
   
نویسنده شیخ ‌پور راضیه
منبع مهندسي برق دانشگاه تبريز - 1401 - دوره : 52 - شماره : 2 - صفحه:125 -135
چکیده    انتخاب ویژگی یکی از تکنیک ‌های مهم در یادگیری ماشین و شناسایی الگو است که با حذف ویژگی‌های نامناسب  و انتخاب زیرمجموعه ای مفید از ویژگی‌ها باعث اجتناب از بیش ‌برازش در هنگام ساخت مدل، بهبود کارایی و سادگی مدل می‌شود. در بسیاری از کاربردها، تعیین برچسب داده‌ها هزینه‌بر بوده و مستلزم صرف زمان زیادی است، درحالی‌که داده‌های بدون برچسب به آسانی در دسترس هستند. بنابراین، استفاده از روش‌های انتخاب ویژگی نیمه‌نظارتی که بتوانند در فرآیند انتخاب ویژگی از داده‌های برچسب‌دار و بدون برچسب استفاده نمایند، بسیار ارزشمند است. در این مقاله، یک روش انتخاب ویژگی تُنک نیمه‌نظارتی مبتنی بر منظم‌سازی هسین و آنالیز تشخیصی فیشر پیشنهاد می‌شود که می‌تواند با استفاده از داده‌های برچسب‌دار و اطلاعات توزیع و ساختار محلی داده‌های برچسب‌دار و بدون برچسب مناسب‌ترین ویژگی‌ها را انتخاب نماید. در روش پیشنهادی، تابع هدفی مبتنی بر ماتریس پراکندگی نیمه‌نظارتی و نُرم- l2,1 برای انتخاب ویژگی ارائه می‌شود که از منظم‌سازی هسین و آنالیز تشخیصی فیشر در ساخت ماتریس پراکندگی نیمه‌نظارتی استفاده می‌کند و همبستگی بین ویژگی‌ها را در هنگام انتخاب ویژگی در نظر می‌گیرد. برای حل تابع هدف پیشنهادی مبتنی بر منظم‌سازی هسین و آنالیز تشخیصی فیشر، الگوریتمی موثر با رویکرد تکراری به کار می‌رود و همگرایی آن به صورت تئوری و عملی اثبات می‌شود. نتایج به‌دست آمده از آزمایش‌ها بر روی پنج مجموعه داده حاکی از برتری روش‌ پیشنهادی در مقایسه با دیگر روش ‌های انتخاب ویژگی استفاده شده در این مقاله است.
کلیدواژه انتخاب ویژگی نیمه‌نظارتی، مدل ‌های تُنک، منظم‌ سازی هسین، آنالیز تشخیصی فیشر، نُرم-l2
آدرس دانشگاه اردکان, دانشکده فنی و مهندسی, گروه مهندسی کامپیوتر, ایران
پست الکترونیکی rsheikhpour@ardakan.ac.ir
 
   semi-supervised sparse feature selection based on hessian regularization and fisher discriminant analysis  
   
Authors sheikhpour razieh
Abstract    feature selection is one of the most important techniques in machine learning and pattern recognition, which eliminates redudant features and selects a suitable subset of features. this avoids overfitting when building the model and improves the model performance. in many applications, obtaining labeled data is costly and time consuming, while unlabeled data are readily available. therefore, semi-supervised feature selection methods can be used to consider both labeled and unlabeled data in the feature selection process. in this paper, a semi-supervised sparse feature selection method is proposed based on hessian regularization and fisher discriminant analysis which selects the appropriate features using the labeled data and the local structure of both labeled and unlabeled data. in the proposed method, an objective function based on semi-supervised scatter matrix and l2,1-norm is presented for feature selection which considers the correlation among features. to solve the proposed objective function, an iterative algorithm is used and its convergence is experimentally and theoretically proved. the results of the experiments on five data sets indicate that the proposed method improves the selection of relevant features compared to other methods used in this paper.
Keywords semi-supervised feature selection; sparse models; hessian regularization; fisher discriminant analysis ,l2 ,1-norm
 
 

Copyright 2023
Islamic World Science Citation Center
All Rights Reserved