|
|
|
|
پیاده سازی الگوریتم درحلقه سامانه موقعیت یابی با دوربین های چشمماهی
|
|
|
|
|
|
|
|
نویسنده
|
امیری آتشگاه محمد علی ,طبیب محمدجعفر
|
|
منبع
|
علوم و فناوري فضايي - 1400 - دوره : 14 - شماره : 2 - صفحه:49 -59
|
|
چکیده
|
در این مقاله رویکرد مکان یابی یک ربات پرنده در یک فضای محدود توسط دوربین هایی با دید وسیع ارائه می شود. در ابتدا شبیه سازی دینامیکی 6 درجه آزادی وسیله در محیط simulink انجام شده و حرکت آن در یک محیط مجازی در 3dsmax پیاده سازی میشود. در این محیط تعدادی دوربین چشمماهی در چند نقطه مستقر شده و تصاویر دریافتی آنها از پرواز ربات پرنده به صورت برونخط توسط کتابخانههایopencv تجزیه و تحلیل میگردند. سپس به منظور کالیبراسیو ن بُرونی دوربینها از الگویی مشخص شامل تعدادی نقطه روشن که مختصات معلوم دارند تصویربرداری شده و با کمک روشی مبتنی بر نقاط پرسپکتیو، جهت و مکان خود دوربین ها بدست میآید. نتایج تحقیق حاکی از این است که با دقتی در حدود 4 سانتیمتر می توان موقعیت وسیله را تخمین زد. شایان ذکر است که از روش پیشنهادی میتوان در ناوبری رباتهای فضایی و مریخ نورد نیز بهره برد.
|
|
کلیدواژه
|
محیط مجازی، ناوبری تصویری، کالیبراسیون دوربین چشمماهی، الگوریتم مبتنی بر نقاط پرسپکتیو(php)، ربات پرنده
|
|
آدرس
|
دانشگاه تهران, دانشکده علوم و فنون نوین, ایران, دانشگاه تهران, دانشکده علوم و فنون نوین, ایران
|
|
پست الکترونیکی
|
smjtabib@gmail.com
|
|
|
|
|
|
|
|
|
|
|
|
|
localization of aerial robot based on fisheye cameras in a virtual lab
|
|
|
|
|
Authors
|
amiri atashgah mohammad ali ,tabib mohammad jafar
|
|
Abstract
|
this research represents localization of an aerial robot using fisheye cameras on walls in a simulation environment. the virtual testbed in this work is a quadrotor that is simulated in matlab simulink. subsequently, the simulation outputs as flight records are used in a virtual lab, which is developed in 3dsmax. then, the virtual fisheye cameras (here two) are installed in some different points on the walls and the related images from the cameras are received offline. the gathered images will be processed by opencv in a c++ environment. for external calibration, each fisheye camera takes an image from a known pattern consist of some lights placed in the virtual lab. we execute perspective-n-point method on the images to obtain pierce direction/position of the camera. for more, the aerial robot is localized by computing the nearest point between two lines of sight. in brief, the outcomes exhibit an accuracy of 4cm in the center of the virtual-room room.
|
|
Keywords
|
virtual environment ,visual navigation ,fisheye calibration ,fisheye camera ,perspective-n-point ,aerial robot
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|