>
Fa   |   Ar   |   En
   طبقه‌بندی کاربری اراضی کشاورزی با استفاده از تصاویر ماهواره‌ای سنتینل و شبکه عصبی پیچشی سه‌بعدی عمیق (مطالعه موردی: شهرکرد)  
   
نویسنده طاهری دهکردی علیرضا ,ولدان زوج محمد جواد
منبع تحقيقات آب و خاك ايران - 1400 - دوره : 52 - شماره : 7 - صفحه:1941 -1953
چکیده    کشاورزی به عنوان عامل محرک رشد و توسعه اقتصادی در کشورهای مختلف دنیا شناخته شده است. در این بین تولید نقشه های سطح زیرکشت به واسطه طبقه بندی کاربری اراضی کشاورزی با استفاده از تصاویر سنجش از دوری، یکی از راهکارهای موثر در تصمیم گیری های کلان این حوزه و تامین امینت غذایی جامعه به شمار می رود. در این پژوهش اراضی کشاورزی با استفاده از تصاویر چندزمانه نوری (سنتینل2) و رادار با روزنه مجازی (سنتینل1) به کاربری مختلف محصولات کشاورزی پاییزه و بهاره (شامل گندم، جو، ذرت، یونجه، سیب زمینی و چغندقند) طبقه بندی شد. کلیه مراحل مربوط به آماده سازی تصاویر ماهواره ای، در سامانه برخط گوگل ارث انجین انجام پذیرفته است. جهت طبقه بندی نیز، از شبکه عصبی پیچشی عمیق سه بعدی با ساختاری نوین استفاده گردید. شبکه طراحی شده، علاوه بر استفاده از کرنل های سه بعدی با امکان استخراج همزمان اطلاعات همسایگی و زمانی هر پیکسل، از اتصالات فرار لایه های قبلی بهره برده است. این اتصالات فرار، برخلاف شبکه های پیچشی معمولی پیش خور، سبب استفاده از خروجی لایه های پیچشی قبلی در لایه های جدید می شوند. شبکه طراحی شده به کمک داده های واقعیت زمینی بدست آمده از بازدیدهای میدانی وسیع از منطقه مطالعاتی واقع در شهر شهرکرد به صورت انتهابهانتها مورد آموزش و ارزیابی قرار گرفته است. پس از تقسیم بندی داده های واقعیت زمینی به دو دسته آموزشی و ارزیابی، ارزیابی شبکه طی 50 بار اجرا داده های آموزشی و ارزیابی متنوع، به طور میانگین 91.6% محاسبه شده است. اتصالات فرار طراحی شده، سبب افزایش دقت طبقه بندی هر کاربری شده و دقت نهایی طبقه بندی را 2% افزایش دادند. روش ارائه شده با دو نوع زمانی و زمانیمکانی روش های جنگل تصادفی و ماشین بردار پشتیبان نیز مورد مقایسه قرار گرفت که با اختلاف حداقل 2.4 درصدی، عملکرد بهتری از خود نشان داد.
کلیدواژه سنجش از دور، شبکه عصبی کانولوشن، یادگیری عمیق، کاربری اراضی کشاورزی، تصاویر ماهواره ای سنتینل
آدرس دانشگاه صنعتی خواجه نصیرالدین طوسی, دانشکده مهدسی نقشه برداری, گروه سنجش از دور و فتوگرامتری, ایران, دانشگاه صنعتی خواجه نصیرالدین طوسی, گروه فتوگرامتری و سنجش از دور, ایران
 
   Classification of Croplands Using Sentinel2 Satellite Images and a Novel Deep 3D Convolutional Neural Network (Case Study: Shahrekord)  
   
Authors Taheri Dehkordi Alireza ,Valadan Zoej Mohammad Javad
Abstract    Agriculture has been recognized as the main motive for economic growth and development in different countries of the world. In the meantime, mapping croplands through the classification of remote sensing images is one of the effective solutions in decision making and providing food security to the community. In this research, croplands are classified into different classes of agricultural products (including wheat, barley, corn, alfalfa, potatoes, and Sugar beets) using multitemporal optical (Sentinel2) and synthetic aperture radar (Sentinel1) satellite images. All the steps related to the preparation of satellite images, have been conducted in the Google Earth Engine online processing platform. A novel threedimensional deep convolutional neural network is used as the classifier. The designed network, in addition to threedimensional kernels with the ability to extract spatial and temporal information of each pixel simultaneously, uses some escape connections of the previous layers. These connections, contrary to the feedforward convolutional networks, feed the output of the previous layers to the new layers. After dividing the ground truth data into two categories of training and evaluation and assessing the performance of the network with 50 different training and evaluation data, the network’s overall accuracy was calculated 91.6% on average. According to the final results, the designed escape connections increased the overall accuracy of classification by 2%. The proposed network was also compared with temporal and spatialtemporal Random Forests and Support Vector Machines which showed a better performance with a difference of at least 2.4%.
Keywords
 
 

Copyright 2023
Islamic World Science Citation Center
All Rights Reserved