>
Fa   |   Ar   |   En
   منطق اخلاقی و اخلاق منطقی تعامل انسان و ماشین در موج سوم هوش مصنوعی  
   
نویسنده نصیری مفخم فریا ,محسنی غزال ,جعفرپیشه آرمین
منبع رياضي و جامعه - 1401 - دوره : 7 - شماره : 2 - صفحه:37 -67
چکیده    علم و زبان منطق، زیربنای بسیاری از رویه‌های استنتاجی و استدلالی در هوش مصنوعی برای مدل‌سازی تفکر و تصمیم‌گیری مغز انسان بوده است. از جمله تصمیم‌گیری‌هایی که حتی برای خود انسان‌ها نیز بغرنج است، تشخیص درست و نادرست در موقعیت‌های اخلاقی و اجتماعی-حقوقی است. تصمیم‌ها در این موقعیت‌ها متفاوت و برگرفته از مکاتب و نظریه‌های اخلاقی مختلف هستند. پیاده‌سازی این‌گونه تفکر در ماشین‌های هوشمند، این موضوع را چالش ‌برانگیزتر نموده است. نیاز به پیاده‌سازی اخلاق در ماشین‌های هوشمند به‌دلیل تصمیم‌ها و اقداماتی است که به‌صورت خودکار و بدون دخالت انسان انجام می‌دهند. هراس از تسلط سامانه‌های خودمختار بر آینده بشر، باعث ظهور شاخه‌ای به نام اخلاق در هوش مصنوعی شده است که به اخلاقی ‌بودن تعامل انسان-ماشین می‌پردازد. برای اعتماد به ربات‌ها، آن‌ها باید بتوانند چرایی و چگونگی تصمیماتی که اتخاذ کرده یا می‌کنند را به انسان‌ها توضیح دهند. این مطالعه، مفاهیم اخلاق ماشینی و ماشین اخلاقی را به‌همراه ربات نرم‌افزاری دارای اخلاق مبتنی بر منطق، به‌عنوان قدم‌هایی که پژوهش‌ها برای اطمینان از سامانه‌های هوشمند، مستقل و هم‌زیست با انسان‌ها توجه کرده‌اند، مرور می‌کند. این بررسی برای مثال‌های کلاسیک شامل واگن فراری، قایق، و دروغگویی و براساس اصول اخلاقی شامل فایده‌گرایی، پارتو، و اثر مضاعف، توصیف می‌شود. همچنین، مقایسه عملکرد چنین سامانه‌ هوشمند در قالب یک ماشین خودران با تصمیماتی که انسان‌هایی از کشورها و فرهنگ‌های مختلف در این موقعیت‌های لبه اخلاقی اتخاذ می‌کرده‌اند نشان داده می‌شود.
کلیدواژه تعامل انسان و ماشین، تعامل اخلاقی انسان و ربات، هوش مصنوعی توضیح‌پذیر، اخلاق کاربردی، اخلاق ماشینی، ماشین اخلاقی، منطق، معماهای اخلاقی، اتومبیل خودران
آدرس دانشگاه اصفهان, دانشکده مهندسی کامپیوتر, ایران, دانشگاه اصفهان, دانشکده مهندسی کامپیوتر, ایران, دانشگاه اصفهان, دانشکده مهندسی کامپیوتر, ایران
پست الکترونیکی 222@bbb.com
 
   logical ethics and ethical logic of human-machine interaction in the third wave of artificial intelligence  
   
Authors nassiri-mofakham faria ,mohseni ghazal ,jafarpisheh armin
Abstract    logic language and science have been the basis of many reasoning and inference procedures in artificial intelligence for modeling the thinking and decision-making of the human brain. one kind of decision that is even difficult for human beings is assessing moral and socio-legal situations as true or false values. decisions in these situations could be different, derived from several moral schools and theories. implementing this kind of thinking in intelligent machines has made this issue even more challenging. the need to implement ethics in intelligent machines is due to the decisions and actions that they make autonomously and without human intervention. the fear of the domination of autonomous systems over the future of humanity has led to the emergence of the ethics branch in artificial intelligence, which deals with the morality of human-machine interaction. to trust robots, they must be able to explain to humans why and how they made any decision. this study reviews the concepts of machine ethics and ethical machine along with a software robot with ethics based on logic as the steps that researchers have taken to ensure intelligent, independent, and co-existing systems with humans. this review is described for classical examples including runaway trolley, boat, and lying, and based on ethical principles including utilitarianism, pareto, and double effect. it also shows the comparison of the functionality of such an intelligent and autonomous system in the form of a self-driving car with the decisions made by people from different countries and cultures in the same moral edge situations.
Keywords human-computer interaction ,moral human-robot interaction ,xai (explainable artificial intelligence) ,applied ethics ,machine ethics ,ethical machine ,logic ,moral dilemmas ,self-driving car
 
 

Copyright 2023
Islamic World Science Citation Center
All Rights Reserved