|
|
منطق اخلاقی و اخلاق منطقی تعامل انسان و ماشین در موج سوم هوش مصنوعی
|
|
|
|
|
نویسنده
|
نصیری مفخم فریا ,محسنی غزال ,جعفرپیشه آرمین
|
منبع
|
رياضي و جامعه - 1401 - دوره : 7 - شماره : 2 - صفحه:37 -67
|
چکیده
|
علم و زبان منطق، زیربنای بسیاری از رویههای استنتاجی و استدلالی در هوش مصنوعی برای مدلسازی تفکر و تصمیمگیری مغز انسان بوده است. از جمله تصمیمگیریهایی که حتی برای خود انسانها نیز بغرنج است، تشخیص درست و نادرست در موقعیتهای اخلاقی و اجتماعی-حقوقی است. تصمیمها در این موقعیتها متفاوت و برگرفته از مکاتب و نظریههای اخلاقی مختلف هستند. پیادهسازی اینگونه تفکر در ماشینهای هوشمند، این موضوع را چالش برانگیزتر نموده است. نیاز به پیادهسازی اخلاق در ماشینهای هوشمند بهدلیل تصمیمها و اقداماتی است که بهصورت خودکار و بدون دخالت انسان انجام میدهند. هراس از تسلط سامانههای خودمختار بر آینده بشر، باعث ظهور شاخهای به نام اخلاق در هوش مصنوعی شده است که به اخلاقی بودن تعامل انسان-ماشین میپردازد. برای اعتماد به رباتها، آنها باید بتوانند چرایی و چگونگی تصمیماتی که اتخاذ کرده یا میکنند را به انسانها توضیح دهند. این مطالعه، مفاهیم اخلاق ماشینی و ماشین اخلاقی را بههمراه ربات نرمافزاری دارای اخلاق مبتنی بر منطق، بهعنوان قدمهایی که پژوهشها برای اطمینان از سامانههای هوشمند، مستقل و همزیست با انسانها توجه کردهاند، مرور میکند. این بررسی برای مثالهای کلاسیک شامل واگن فراری، قایق، و دروغگویی و براساس اصول اخلاقی شامل فایدهگرایی، پارتو، و اثر مضاعف، توصیف میشود. همچنین، مقایسه عملکرد چنین سامانه هوشمند در قالب یک ماشین خودران با تصمیماتی که انسانهایی از کشورها و فرهنگهای مختلف در این موقعیتهای لبه اخلاقی اتخاذ میکردهاند نشان داده میشود.
|
کلیدواژه
|
تعامل انسان و ماشین، تعامل اخلاقی انسان و ربات، هوش مصنوعی توضیحپذیر، اخلاق کاربردی، اخلاق ماشینی، ماشین اخلاقی، منطق، معماهای اخلاقی، اتومبیل خودران
|
آدرس
|
دانشگاه اصفهان, دانشکده مهندسی کامپیوتر, ایران, دانشگاه اصفهان, دانشکده مهندسی کامپیوتر, ایران, دانشگاه اصفهان, دانشکده مهندسی کامپیوتر, ایران
|
پست الکترونیکی
|
222@bbb.com
|
|
|
|
|
|
|
|
|
logical ethics and ethical logic of human-machine interaction in the third wave of artificial intelligence
|
|
|
Authors
|
nassiri-mofakham faria ,mohseni ghazal ,jafarpisheh armin
|
Abstract
|
logic language and science have been the basis of many reasoning and inference procedures in artificial intelligence for modeling the thinking and decision-making of the human brain. one kind of decision that is even difficult for human beings is assessing moral and socio-legal situations as true or false values. decisions in these situations could be different, derived from several moral schools and theories. implementing this kind of thinking in intelligent machines has made this issue even more challenging. the need to implement ethics in intelligent machines is due to the decisions and actions that they make autonomously and without human intervention. the fear of the domination of autonomous systems over the future of humanity has led to the emergence of the ethics branch in artificial intelligence, which deals with the morality of human-machine interaction. to trust robots, they must be able to explain to humans why and how they made any decision. this study reviews the concepts of machine ethics and ethical machine along with a software robot with ethics based on logic as the steps that researchers have taken to ensure intelligent, independent, and co-existing systems with humans. this review is described for classical examples including runaway trolley, boat, and lying, and based on ethical principles including utilitarianism, pareto, and double effect. it also shows the comparison of the functionality of such an intelligent and autonomous system in the form of a self-driving car with the decisions made by people from different countries and cultures in the same moral edge situations.
|
Keywords
|
human-computer interaction ,moral human-robot interaction ,xai (explainable artificial intelligence) ,applied ethics ,machine ethics ,ethical machine ,logic ,moral dilemmas ,self-driving car
|
|
|
|
|
|
|
|
|
|
|