|
|
ارزیابی و مقایسه عملکرد شبکه های عصبی عمیق fcn و rdrcnn بهمنظور شناسایی و استخراج عارضه راه شهری با استفاده از تصاویر سنتینل-2 با قدرت تفکیک مکانی متوسط
|
|
|
|
|
نویسنده
|
شیخ قادری هدایت ,ضیائیان فیروزآبادی پرویز ,کلارستاقی منوچهر
|
منبع
|
مهندسي فناوري اطلاعات مكاني - 1400 - دوره : 9 - شماره : 3 - صفحه:109 -133
|
چکیده
|
استخراج عارضه راه با استفاده از تصاویر سنجش ازدور طی سال های گذشته بهعنوان یکی از موضوعات جذاب، موردتوجه محققین بوده است. اخیراً پیشرفت و توسعه ی شبکه های عصبی عمیق (dnn) در بخش تقسیم بندی معنایی به یکی از روش های مهم استخراج راه تبدیلشده است. در این میان اکثریت تحقیقات انجامشده درزمینهی استخراج عارضه ی راه با بهره گیری از dnn در مناطق شهری و غیرشهری با استفاده از تصاویر با قدرت تفکیک مکانی بالا انجامگرفته است. در این تحقیق برای اولین بار جهت استخراج عارضه ی راه با استفاده dnn، از تصاویر با وضوح مکانی متوسط سنجنده سنتینل 2 بهره گرفته شد، به این صورت که از تصویر شهر تهران بهعنوان داده ی تست و از 7 شهر دیگر (مشهد، اصفهان، شیراز، تبریز، کرمانشاه، ارومیه و بغداد) بهعنوان داده های آموزش و اعتبارسنجی، استفاده گردید. در این میان، پس از آمادهسازی و برچسب زنی همه ی پیکسل های مربوط به عارضه ی راه، تصاویر به قطعات 256 در 256 پیکسل تبدیل و پس از جداسازی قطعات نامناسب، برای داده های تست، آموزش و اعتبارسنجی به ترتیب 135، 1500 و 100 قطعه تصویر به دست آمد. درنهایت برای آموزش و استخراج عارضه ی راه، از شبکه ها ی عصبی کانولوشن باقیمانده عمیق پالایش شده (rdrcnn) و unet که مبتنی بر شبکه های کاملاً کانولوشن (fcn) است، استفاده شد. نتایج حاصله حاکی از آن است که هر دو مدل rdrcnn و fcn در مقایسه با داده های واقعیت زمینی شبکه راه شهری تهران را از تصاویر سنتینل 2 بهخوبی شناسایی و استخراج کرده اند. در این میان مدل fcn هم ازنظر بصری و هم ازنظر متریک های ارزیابی صحت نسبت به مدل rdrcnn عملکرد بهتری داشته، بهطوریکه برای مدل fcn، معیارهای کامل بودن 82.92%، صحت 77.67%، امتیازf1 %80.20 و دقت کلی96.30% و برای rdrcnn معیارهای کامل بودن 80.43%، صحت 71.37، امتیازf1 %77.74 و دقت کلی 95.71% به دست آمد. بهطورکلی یافته های این پژوهش پتانسیل استفاده از روش های dnn برای استخراج عارضه ی راه شهری با بهره گیری از تصاویر باقدرت تفکیک مکانی متوسط سنتینل 2 را نشان می دهد.
|
کلیدواژه
|
شبکههای عصبی عمیق، استخراج راه، fcn، rdrcnn، سنتینل2
|
آدرس
|
دانشگاه خوارزمی, دانشکده علوم جغرافیایی, گروه سنجش ازدور و سیستم اطلاعات جغرافیایی, ایران, دانشگاه خوارزمی, دانشکده علوم جغرافیایی, گروه سنجش ازدور و سیستم اطلاعات جغرافیایی, ایران, دانشگاه خوارزمی, دانشکده فنی و مهندسی, گروه آموزشی مهندسی برق و کامپیوتر, ایران
|
|
|
|
|
|
|
|
|
|
|
Evaluation and comparison performance of deep neural networks FCN and RDRCNN in order to identify and extract urban road using images of Sentinel-2 with medium spatial resolution
|
|
|
Authors
|
Sheikhghaderi Hedayat ,Zeaieanfirouzabadi Parviz ,Kelarestaghi Manoochehr
|
Abstract
|
Road extraction using remote sensing images has been one of the most interesting topics for researchers in recent years. Recently, the development of deep neural networks (DNNs) in the field of semantic segmentation has become one of the important methods of Road extraction. In the Meanwhile The majority of research in the field of road extraction using DNN in urban and nonurban areas has been done using images with high spatial resolution. In this research, for the first time, to extract the road using DNN, the images with medium spatial resolution of Sentinel2 sensor were used, so that the image of Tehran as a test data and from 7 other cities (Mashhad, Isfahan, Shiraz, Tabriz, Kermanshah, Urmia and Baghdad) were used as training and validation data. In the Meanwhile, after preparing and labeling all the pixels related to the road surface, the images are converted into 256 × 256 pieces, and after separating the unsuitable parts, for test, training and validation data, respectively. 135, 1500 and 100 image pieces were obtained. Finally, deep refined residual convolution neural networks (RDRCNN) and UNet, which are based on fully convolutional networks (FCN), were used to train and extract the road complication. The results show that both RDRCNN and FCN models have well identified and extracted Tehran urban road network from Sentinel 2 images in comparison with the ground reality data. Meanwhile, the FCN model performed better than the RDRCNN model both visually and in terms of accuracy assessment metrics, so that for the FCN model, the criteria Recall 82.92%, accuracy 77.67%, F1 score 77.53 and overall accuracy 96. 30% and for RDRCNN the criteria Recall were 80.43%, accuracy 71.37, F1 score 72.14% and overall accuracy 95.71%. In general, the findings of this study show the potential of using DNN methods to extract urban roads using images with medium spatial resolution of Sentinel2.
|
Keywords
|
deep neural networks(DNN) ,Road Extraction ,RDRCNN ,Sentinel-2 ,FCN
|
|
|
|
|
|
|
|
|
|
|