>
Fa   |   Ar   |   En
   یادگیری مجموعه داده محدود برای طبقه‌بندی مقصود با استفاده از مدل پیش آموزش داده شده Bert  
   
DOR 20.1001.2.0020193782.1400.1.1.7.5
نویسنده کنعانی محمدامین ,امینیان مهدی
منبع وب پژوهي - 1400 - دوره : 7 - هفتمین کنفرانس بین المللی وب پژوهی - کد همایش: 00201-93782
چکیده    طبقه‌بندی مقصود یکی از مسائل مهم در فهم زبان طبیعی است که هدف آن طبقه‌بندی پرسش ها بر اساس مقصود، هدف، یا منظوری است که در محتوا بیان شده است. اما مشکلی که در این نوع مسائل وجود دارد کمبود داده هایی است که توسط عامل انسانی برچسب گذاری شده باشند. این مشکل باعث ضعف در جامع سازی مدل ها می شود، مخصوصا وقتی که مدل ها با کلمات نادر مواجه می شوند. استفاده از مدل های از پیش آموزش داده شده می تواند در ارائه ‌ای جامع از زبان مفید واقع شوند. مدل زبانی از پیش آموزش داده شده bert که اخیراً منتشر شده است اثر مهمی در حوزه پردازش زبان طبیعی گذاشته است. این مدل زبانی که با استفاده از یک پیکره زبانی بسیار بزرگ بدون برچسب پیش آموزش داده شده است، با تنظیم دقیق توانسته است در بسیاری از مسائل پردازش زبان طبیعی مانند سیستم‌ های پرسش و پاسخ و تحلیل احساس نتایج بسیار خوبی کسب کند. در این مقاله سعی شده است که مدل زبانی bert با مدل های رایج یادگیری ماشین برای طبقه‌بندی مقصود مقایسه شود و نشان داده شده است که برای یادگیری مجموعه داده محدود مدل bert عملکرد بهتری نسبت به مدل های رایج یادگیری ماشین دارد.
کلیدواژه پردازش زبان طبیعی ,فهم زبان طبیعی ,طبقه‌بندی مقصود ,عوامل مکالمه ای ,یادگیری عمیق ,یادگیری ماشین ,انتقال یادگیری
آدرس دانشگاه گیلان, ایران, دانشگاه گیلان, ایران
پست الکترونیکی mahdi.aminian@guilan.ac.ir
 
   Few-Shot Learning for Intent Classification Using Pre-Trained BERT Model  
   
Authors
Abstract    Intent classification is one of the important tasks in natural language understanding which aims to classify queries based on their intent, goal, or purpose which is implied in the content. However, the problem in this task is the lack of data labeled by a human agent. This problem leads to weakness in the generalization of models, especially when the models face rare words. Using pre-trained models can be useful in the generalization of language representation. BERT pre-trained language model which has been currently published has made a major impact in the natural language processing field. This model which is trained on unlabeled large-scale corpora, with fine-tuning could achieve state-of-art results in various natural language processing tasks e.g. question answering and sentiment analysis. In this paper, we compared the BERT model with conventional machine learning models and shown that the BERT model has a better performance than conventional machine learning models in few-shot learning.
Keywords پردازش زبان طبیعی ,فهم زبان طبیعی ,طبقه‌بندی مقصود ,عوامل مکالمه ای ,یادگیری عمیق ,یادگیری ماشین ,انتقال یادگیری
 
 

Copyright 2023
Islamic World Science Citation Center
All Rights Reserved