|
|
|
|
شناسایی الزامات طراحی و قابلیت تبیین سیستم های هوش مصنوعی
|
|
|
|
|
|
|
|
نویسنده
|
همت زهرا ,مهرآیین محمد ,فتاحی رحمت الله ,شیرانی فرهاد
|
|
منبع
|
مطالعات مديريت راهبردي - 1403 - دوره : 15 - شماره : 59 - صفحه:45 -67
|
|
چکیده
|
با گسترش کاربرد الگوریتمهای هوش مصنوعی در سازمانها و بخشهای دولتی، دغدغههایی در مورد مسئولیت اجتماعی کاربست عاملهای هوشمند همانند شفافیت، پاسخگویی و انصاف در محافل دولتی و دانشگاهی مطرح شده است. بر همین اساس، هدف پژوهش، تبیین مدل ساختاری- تفسیری الزامات طراحی سیستمهای هوش مصنوعی با قابلیت تبیین در تصمیمگیریهای مبتنی بر مشارکت انسان و هوش مصنوعی است. برای رسیدن به این هدف، از روش آمیخته اکتشافی طراحی مبتنی بر اقدام- دلفی فازی و مدلسازی ساختاری- تفسیری برای توسعه و ارزیابی اصول طراحی سیستم هوش مصنوعی با قابلیت تبیین استفاده میشود. زمینه پژوهش، ادارۀ کل تنقیح قوانین و مقررات در معاونت حقوقی قوۀ قضائیه است. مشارکتکنندگان پژوهش، دست اندرکارانی از ادارۀ کل تنقیح قوانین و مقررات و مرکز فناوری اطلاعات بوده که به همراه پژوهشگران تیم پژوهش را تشکیل میدهند و در مجموع 15 نفر هستند. بر اساس یافتههای پژوهش، مدل، پنج ویژگی قابلیت درک، قابلیت حکمرانی، قابلیت اقناع، دقت پیشبینی (توصیفی)، شفافیت و سودمندی را در بر میگیرد. این قابلیتها در دو بُعد طبقهبندی شدند. بُعد توانش شامل قابلیت درک، قابلیت حکمرانی و قابلیت اقناع است. بُعد محققسازی نیز شامل ویژگیهای دقت پیشبینی، شفافیت و سودمندی است. افزون بر این، مدل میتواند سازوکار تقویت هوشمندی در تعامل انسان-هوش مصنوعی را تبیین کند.
|
|
کلیدواژه
|
قابلیت درک، قابلیت حکمرانی، قابلیت اقناع، دقت پیشبینی، شفافیت، سودمندی
|
|
آدرس
|
دانشگاه فردوسی مشهد, دانشکده علوم اداری و اقتصادی, ایران, دانشگاه فردوسی مشهد, دانشکده علوم اداری و اقتصادی, ایران, دانشگاه فردوسی مشهد, دانشکده علوم تربیتی و روانشناسی, ایران, پژوهشگاه علوم و فناوری اطلاعات ایران, پژوهشکده فناوری اطلاعات, ایران
|
|
پست الکترونیکی
|
shirani@irandoc.ac.ir
|
|
|
|
|
|
|
|
|
|
|
|
|
identifying the design requirements of explainable artificial intelligence systems
|
|
|
|
|
Authors
|
hemmat zahra ,mehraeen mohammad ,fattahi rahmat allah ,shirani farhad
|
|
Abstract
|
with the expansion of the use of artificial intelligence algorithms in government organizations, concerns about the social responsibility of using intelligent agents such as transparency, accountability and fairness have been raised in government and academic areas. accordingly, the research’s aim is to explain the structural-interpretive model of the design requirements of artificial intelligence systems with the ability to explain decisions based on human participation and artificial intelligence. the exploratory mixed method of action-based design-fuzzy delphi and structural-interpretive modeling used. the field of research is the legal department of the judiciary. the participants are professionals from the that centers are 15 people in total. based on the findings, the model includes five features of understanding ability, governance ability, persuasion ability, prediction accuracy (descriptive), transparency and usefulness. these capabilities classified in two dimensions. the ability dimension includes the ability to understand, the ability to rule, and the ability to persuade. the dimension of research also includes the features of prediction accuracy, transparency and usefulness. in addition, the model can explain the mechanism of enhancing intelligence in human-artificial intelligence interaction.
|
|
Keywords
|
ability to understand ,ability to rule ,ability to persuade ,prediction accuracy ,transparency ,usefulness
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|