>
Fa   |   Ar   |   En
   تشخیص توهم مدل‌های زبانی بزرگ به کمک روش دگرنویسی  
   
نویسنده زارع تارا ,شمس‌فرد مهرنوش
منبع دهمين كنفرانس بين المللي وب پژوهي - 1403 - دوره : 10 - دهمین کنفرانس بین المللی وب پژوهی - کد همایش: 03231-70970 - صفحه:0 -0
چکیده    توهم در مدل‌های زبانی بزرگ به خروجی‌های در ظاهر صحیح اما در باطن برخلاف واقعیت یا عدم وفادار به منبع اطلاق می‌گردد. تشخیص توهم در مدل‌های زبانی بزرگ به جهت جلوگیری از انتشار این توهم‌ها در کاربردهایی که به طور مستقیم یا غیرمستقیم با مدل‌های زبانی بزرگ ارتباط دارند، اهمیت دارد. در این پژوهش از الگوریتم ساده‌ای جهت تشخیص متوهم بودن یک مدل زبانی بزرگ استفاده کرده‌ایم. فرضیه ما بر این اساس است که اگر مدل زبانی بزرگ به دگرنویسی‌های یک پرسش پاسخ دهد و در میان پاسخ‌های آن تناقضی کشف شود آن گاه گوییم دچار توهم شده است و اگر پاسخ‌ها سازگار باشند، به احتمال بالایی پاسخ درستی می‌دهد. این دو فرضیه را با آزمایش‌هایی بررسی و تایید کرده‌ایم. به این ترتیب روش پیشنهادی ما برای کشف توهم در پاسخ به یک پرسش، ایجاد دگرنویسی‌های مختلف آن پرسش و بررسی وجود ناسازگاری یا تناقض در پاسخ‌های داده شده به پرسش‌های تولید شده است. وجود یا عدم ناسازگاری، وجود یا عدم توهم را تایید می‌کند. آزمایشات نشان‌ می‌دهند این روش با دقت بالایی قادر به کشف توهم در پاسخ به سوالات است.
کلیدواژه مدل‌های زبانی بزرگ، توهم در مدل‌های زبانی بزرگ، کشف ناسازگاری، دگرنویسی
آدرس , iran, , iran
پست الکترونیکی m-shams@sbu.ac.ir
 
   detecting hallucinations generated by large language models using paraphrasing technique  
   
Authors
Abstract    hallucination in large language models refers to outputs that appear correct but contradict reality or diverge from the source. detecting hallucination in large language models is crucial to prevent the dissemination of these hallucinations in applications directly or indirectly related to such models. in this study, we have employed a simple algorithm to detect hallucination in a large language model. our hypothesis is based on the hypothesis that if a large language model responds to the paraphrases of a question and an inconsistency is discovered among its answers, then we say that it is hallucination, and if the answers are consistent, it likely provides a correct answer. we have checked and confirmed these two hypotheses with experiments. in this way, our proposed method to discover the hallucination in answering a question is to create different paraphrases of that question and check the existence of inconsistencies or contradictions in the answers given to the generated questions. the presence or absence of inconsistency confirms the presence or absence of hallucinations. experiments show that this method is able to detect hallucination in answering questions with high accuracy.
Keywords large language models ,hallucination of large language models ,inconsistency detection ,paraphrasing
 
 

Copyright 2023
Islamic World Science Citation Center
All Rights Reserved