>
Fa   |   Ar   |   En
   ارائه یک چارچوب توزیع شده برای انتخاب ویژگی چندمتغیره  
   
نویسنده شریف نژاد منا ,رحمانی محسن ,غفاریان حسین
منبع پردازش علائم و داده ها - 1401 - شماره : 4 - صفحه:19 -32
چکیده    در بسیاری از مسائل یادگیری ماشین، انتخابِ ویژگی های مرتبط و اجتناب از ویژگی های افزونه، برای بهبود کارایی انتخاب ویژگی ضروری است. در اکثر رویکردهای موجود، از الگوریتم های فیلتر چندمتغیره برای این منظور استفاده می شود که در آن ها تعامل با طبقه بند نادیده گرفته می شود. این مقاله با ارائه یک چارچوب، ترکیب روش های نهفته با روش های  فیلتر چندمتغیره را پیشنهاد می دهد تا با درنظر گرفتن تعامل با طبقه بند در انتخاب ویژگی ها، این مشکل را برطرف نماید. در چارچوب پیشنهاد شده، ارتباط بین هر ویژگی و برچسب های کلاس توسط الگوریتم های نهفته محاسبه می شود و افزونگی بین ویژگی ها از طریق الگوریتم های فیلتر چندمتغیره بررسی می شود. این چارچوب پیشنهادی، دقت طبقه بندی را روی چندین مجموعه داده بهبود داده است. به علاوه در فرایند انتخاب ویژگی پیشنهاد شده، بجای استفاده یکدفعه  از همه مجموعه داده ها، از توزیع افقی آن ها استفاده شده است. این خصوصیت برای مجموعه داده هایی که دارای نمونه های زیادی هستند و نیز در محیط هایی که داده ها  متمرکز نیستند، باعث کاهش زمان اجرای فرایند انتخاب ویژگی شده است. کیفیت روش ما با استفاده از شش مجموعه داده ارزیابی شده است. نتایج ثابت می کنند که چارچوب پیشنهاد شده، می تواند دقت طبقه بندی را در مقایسه با روش های صرفا مبتنی بر فیلتر چندمتغیره بهبود دهد. همچنین سرعت اجرا می تواند در مقایسه با روش های متمرکز بهبود یابد.
کلیدواژه انتخاب ویژگی فیلتر چندمتغیره، انتخاب ویژگی نهفته، طبقه‌بندی، توزیع شدگی
آدرس دانشگاه اراک, دانشکده فنی و مهندسی, گروه کامپیوتر, ایران, دانشگاه اراک, دانشکده فنی و مهندسی, گروه کامپیوتر, ایران, دانشگاه اراک, دانشکده فنی و مهندسی, گروه کامپیوتر, ایران
پست الکترونیکی h-ghaffarian@araku.ac.ir
 
   a new framework for distributed multivariate feature selection  
   
Authors sharifnezhad mona ,rahmani mohsen ,ghafarian hosein
Abstract    feature selection is considered as an important issue in classification domain. selecting a good feature through maximum relevance criterion to class label and minimum redundancy among features affect improving the classification accuracy. however, most current feature selection algorithms just work with the centralized methods.in this paper, we suggest a distributed version of the mrmr feature selection approach. in mrmr, feature selection is performed based on maximum relevance to class and minimum redundancy among the features. the suggested method include six stages: in the first stage, after determining training and test data, training data are distributed horizontally. all subsets have same number of features. in the second stage, each subset of features is scored using mrmr feature selection. features with higher ranks are selected and others are eliminated. in the fourth stage, features which were omitted are voted. in the fifth stage, the selected features are merged to determine the final set. in the final stage, classification accuracy is evaluated using final training data and test data.our method quality has been evaluated by six datasets. the results prove that the suggested method can improve classification accuracy compared to methods just based on maximum relevance to class label in addition to runtime reduction.
Keywords multivariate filter feature selection ,embedded feature selection ,classification ,distribution
 
 

Copyright 2023
Islamic World Science Citation Center
All Rights Reserved