|
|
ارائه روشی جدید برای تعبیه اسناد جهت دستهبندی متون خبری
|
|
|
|
|
نویسنده
|
رحیمی زهرا ,همایونپور محمدمهدی
|
منبع
|
پردازش علائم و داده ها - 1401 - شماره : 4 - صفحه:137 -148
|
چکیده
|
یکی از کاربردهای مهم در پردازش زبان طبیعی، دستهبندی متون است. برای دسته بندی متون خبری باید ابتدا آنها را به شیوه مناسبی بازنمایی کرد. روش های مختلفی برای بازنمایی متن وجود دارد ولی بیشتر آنها روش هایی همه منظوره هستند و فقط از اطلاعات همرخدادی محلی و مرتبه اول کلمات برای بازنمایی استفاده می نمایند. در این مقاله روشی بی ناظر برای بازنمایی متون خبری ارائه شده است که از اطلاعات همرخدادی سراسری و اطلاعات موضوعی برای بازنمایی اسناد استفاده می نماید. اطلاعات موضوعی علاوه بر اینکه بازنمایی انتزاعی تری از متن ارائه می دهد حاوی اطلاعات همرخدادی های مراتب بالاتر نیز هست. اطلاعات همرخدادی سراسری و موضوعی مکمل یکدیگرند. بنابراین در این مقاله بهمنظور تولید بازنمایی غنی تری برای دسته بندی متن، هر دو بکارگرفته شده اند. روش پیشنهادی بر روی پیکره های r8 و 20-newsgruops که از پیکره های شناخته شده برای دسته بندی متون هستند آزمایش شده و با روش های مختلفی مقایسه گردید. در مقایسه با روش پیشنهادی با سایر روشها افزایش دقتی به میزان افزایش 3% مشاهده گردید.
|
کلیدواژه
|
بازنمایی سند، تعبیه سند، تعبیه کلمه، هم رخدادی کلمات، اطلاعات موضوعی، دستهبندی متن
|
آدرس
|
دانشگاه صنعتی امیرکبیر, دانشکده مهندسی رایانه و فناوری اطلاعات, ایران, دانشگاه صنعتی امیرکبیر, دانشکده مهندسی رایانه و فناوری اطلاعات, ایران
|
پست الکترونیکی
|
homayoun@aut.ac.ir
|
|
|
|
|
|
|
|
|
a new document embedding method for news classification
|
|
|
Authors
|
rahimi zahra ,homayounpour mohammad mehdi
|
Abstract
|
abstract- text classification is one of the main tasks of natural language processing (nlp). in this task, documents are classified into pre-defined categories. there is lots of news spreading on the web. a text classifier can categorize news automatically and this facilitates and accelerates access to the news. the first step in text classification is to represent documents in a suitable way that can be distinguishable by a classifier. there is an abundance of methods in the literature for document representation which can be divided into a bag of words model, graph-based methods, word embedding pooling, neural network-based, and topic modeling based methods. most of these methods only use local word co-occurrences to generate document embeddings. local word co-occurrences miss the overall view of a document and topical information which can be very useful for classifying news articles. in this paper, we propose a method that utilizes term-document and document-topic matrix to generate richer representations for documents. term-document matrix represents a document in a specific way where each word plays a role in representing a document. the generalization power of this type of representation for text classification and information retrieval is not very well. this matrix is created based on global co-occurrences (in document-level). these types of co-occurrences are more suitable for text classification than local co-occurrences. document-topic matrix represents a document in an abstract way and the higher level co-occurrences are used to generate this matrix. so this type of representation has a good generalization power for text classification but it is so high-level and misses the rare words as features which can be very useful for text classification.the proposed approach is an unsupervised document-embedding model that utilizes the benefit of both document-topic and term-document matrices to generate a richer representation for documents. this method constructs a tensor with the help of these two matrices and applied tensor factorization to reveal the hidden aspects of data. the proposed method is evaluated on the task of text classification on 20-newsgroups and r8 datasets which are benchmark datasets in the news classification area. the results show the superiority of the proposed model with respect to baseline methods. the accuracy of text classification is improved by 3%.
|
Keywords
|
text classification ,document representation ,document embedding ,topic modeling ,word co-occurrences
|
|
|
|
|
|
|
|
|
|
|