>
Fa   |   Ar   |   En
   ارزیابی و مقایسه عملکرد شبکه های عصبی عمیق fcn و rdrcnn به‌منظور شناسایی و استخراج عارضه راه شهری با استفاده از تصاویر سنتینل-2 با قدرت تفکیک مکانی متوسط  
   
نویسنده شیخ قادری هدایت ,ضیائیان فیروزآبادی پرویز ,کلارستاقی منوچهر
منبع مهندسي فناوري اطلاعات مكاني - 1400 - دوره : 9 - شماره : 3 - صفحه:109 -133
چکیده    استخراج عارضه راه با استفاده از تصاویر سنجش ازدور طی سال های گذشته به‌عنوان یکی از موضوعات جذاب، موردتوجه محققین بوده است. اخیراً پیشرفت و توسعه ی شبکه های عصبی عمیق (dnn) در بخش تقسیم بندی معنایی به یکی از روش های مهم استخراج راه تبدیل‌شده است. در این میان اکثریت تحقیقات انجام‌شده درزمینه‌ی استخراج عارضه ی راه با بهره گیری از dnn در مناطق شهری و غیرشهری با استفاده از تصاویر با قدرت تفکیک مکانی بالا انجام‌گرفته است. در این تحقیق برای اولین بار جهت استخراج عارضه ی راه با استفاده dnn، از تصاویر با وضوح مکانی متوسط سنجنده سنتینل 2 بهره گرفته شد، به این صورت که از تصویر شهر تهران به‌عنوان داده ی تست و از 7 شهر دیگر (مشهد، اصفهان، شیراز، تبریز، کرمانشاه، ارومیه و بغداد) به‌عنوان داده های آموزش و اعتبارسنجی، استفاده گردید. در این میان، پس از آماده‌سازی و برچسب زنی همه ی پیکسل های مربوط به عارضه ی راه، تصاویر به قطعات 256 در 256 پیکسل تبدیل و پس از جداسازی قطعات نامناسب، برای داده های تست، آموزش و اعتبارسنجی به ترتیب 135، 1500 و 100 قطعه تصویر به دست آمد. درنهایت برای آموزش و استخراج عارضه ی راه، از شبکه ها ی عصبی کانولوشن باقیمانده عمیق پالایش شده (rdrcnn) و unet که مبتنی بر شبکه های کاملاً کانولوشن (fcn) است، استفاده شد. نتایج حاصله حاکی از آن است که هر دو مدل rdrcnn و fcn در مقایسه با داده های واقعیت زمینی شبکه راه شهری تهران را از تصاویر سنتینل 2 به‌خوبی شناسایی و استخراج کرده اند. در این میان مدل fcn هم ازنظر بصری و هم ازنظر متریک های ارزیابی صحت نسبت به مدل rdrcnn عملکرد بهتری داشته، به‌طوری‌که برای مدل fcn، معیارهای کامل بودن 82.92%، صحت 77.67%، امتیازf1 %80.20 و دقت کلی96.30% و برای rdrcnn معیارهای کامل بودن 80.43%، صحت 71.37، امتیازf1 %77.74 و دقت کلی 95.71% به دست آمد. به‌طورکلی یافته های این پژوهش پتانسیل استفاده از روش های dnn برای استخراج عارضه ی راه شهری با بهره گیری از تصاویر باقدرت تفکیک مکانی متوسط سنتینل 2 را نشان می دهد.
کلیدواژه شبکه‌های عصبی عمیق، استخراج راه، fcn، rdrcnn، سنتینل2
آدرس دانشگاه خوارزمی, دانشکده علوم جغرافیایی, گروه سنجش ازدور و سیستم اطلاعات جغرافیایی, ایران, دانشگاه خوارزمی, دانشکده علوم جغرافیایی, گروه سنجش ازدور و سیستم اطلاعات جغرافیایی, ایران, دانشگاه خوارزمی, دانشکده فنی و مهندسی, گروه آموزشی مهندسی برق و کامپیوتر, ایران
 
   Evaluation and comparison performance of deep neural networks FCN and RDRCNN in order to identify and extract urban road using images of Sentinel-2 with medium spatial resolution  
   
Authors Sheikhghaderi Hedayat ,Zeaieanfirouzabadi Parviz ,Kelarestaghi Manoochehr
Abstract    Road extraction using remote sensing images has been one of the most interesting topics for researchers in recent years. Recently, the development of deep neural networks (DNNs) in the field of semantic segmentation has become one of the important methods of Road extraction. In the Meanwhile The majority of research in the field of road extraction using DNN in urban and nonurban areas has been done using images with high spatial resolution. In this research, for the first time, to extract the road using DNN, the images with medium spatial resolution of Sentinel2 sensor were used, so that the image of Tehran as a test data and from 7 other cities (Mashhad, Isfahan, Shiraz, Tabriz, Kermanshah, Urmia and Baghdad) were used as training and validation data. In the Meanwhile, after preparing and labeling all the pixels related to the road surface, the images are converted into 256 × 256 pieces, and after separating the unsuitable parts, for test, training and validation data, respectively. 135, 1500 and 100 image pieces were obtained. Finally, deep refined residual convolution neural networks (RDRCNN) and UNet, which are based on fully convolutional networks (FCN), were used to train and extract the road complication. The results show that both RDRCNN and FCN models have well identified and extracted Tehran urban road network from Sentinel 2 images in comparison with the ground reality data. Meanwhile, the FCN model performed better than the RDRCNN model both visually and in terms of accuracy assessment metrics, so that for the FCN model, the criteria Recall 82.92%, accuracy 77.67%, F1 score 77.53 and overall accuracy 96. 30% and for RDRCNN the criteria Recall were 80.43%, accuracy 71.37, F1 score 72.14% and overall accuracy 95.71%. In general, the findings of this study show the potential of using DNN methods to extract urban roads using images with medium spatial resolution of Sentinel2.
Keywords deep neural networks(DNN) ,Road Extraction ,RDRCNN ,Sentinel-2 ,FCN
 
 

Copyright 2023
Islamic World Science Citation Center
All Rights Reserved