دانلود ترجمه مقاله روش زیرنمونه برداری اکتشافی برای حل مسأله آموزش کلاس های نامتوازن

عنوان فارسی

استفاده از روش زیرنمونه برداری اکتشافی برای حل مسأله ی آموزش کلاس های نامتوازن

عنوان انگلیسی

Exploratory Undersampling for Class-Imbalance Learning

کلمات کلیدی :

  داده کاوی؛ یادگیری ماشین؛ آموزش کلاس نامتوازن؛ زیرنمونه برداری؛ آموزش تجمیعی

درسهای مرتبط مهندسی کامپیوتر؛ هوش مصنوعی؛ نرم افزار؛ داده کاوی
تعداد صفحات مقاله انگلیسی : 14 نشریه : IEEE
سال انتشار : 2009 تعداد رفرنس مقاله : 47
فرمت مقاله انگلیسی : PDF نوع مقاله : ISI
پاورپوینت : ندارد

سفارش پاورپوینت این مقاله

وضعیت ترجمه مقاله : انجام شده و با خرید بسته می توانید فایل ترجمه را دانلود کنید
IEEE
قیمت دانلود ترجمه مقاله
30,000 تومان
فهرست مطالب

1. مقدمه 2. کارهای مرتبط 3. الگوریتم تجمیع آسان و الگوریتم توازن آبشاری A. تجمیع آسان B. توازن آبشاری 4. آزمایش ها A. معیارهای ارزیابی B. تنظیمات آزمایشی C. زمان تحلیل و آموزش D. نتایج و تحلیل ها E. تحلیل راهبردِ تجمیعی F. نکات بیشتر 5. نتیجه گیری

سفارش ترجمه
ترجمه نمونه متن انگلیسی

مقدمه: در بسیاری از مسائل موجود در جهان واقعی، معمولا مجموعه داده های مورد استفاده نامتوازن هستند؛ برای مثال بعضی از کلاس ها نسبت به کلاس های دیگر دارای نمونه های بیشتری هستند. سطح این عدم توازن (منظور از سطح عدم توازن، نسبتِ اندازه ی کلاس اکثریت به کلاس اقلیت می باشد) می تواند تا اندازه ی یک میلیون بزرگ باشد [41]. قابل توجه است که مسأله ی عدم توازن کلاس برای طراحی طبقه بندهای جدید، مسأله ی مهمی محسوب می شود [11] و [23] و [37]. مسأله ی عدم توازن بر روی عملکرد طبقه بندها تأثیر بسیاری دارد. در این میان، الگوریتم هایی که مسأله ی عدم توازن کلاس را در نظر نمی گیرند، تمایل دارند که توسط کلاس اکثریت تحت پوشش قرار داده شوند و در مقابل توسط کلاس اقلیت نادیده گرفته شوند [10]. برای مثال، در مسأله ای که سطح عدم توازن در آن برابر با 99 باشد، الگوریتم یادگیری ای که میزان خطا را به حداقل می رساند می تواند اینگونه تصمیم بگیرد که تمام نمونه ها در کلاس اکثریت طبقه بندی شوند و بدین ترتیب میزان خطا به 1% کاهش می یابد. با این حال، در این مورد تمام نمونه های کلاس اقلیت به اشتباه طبقه بندی می شوند. در مسائلی که سطح عدم توازن در آنها زیاد است، برای طراحی یک طبقه بند خوب می بایست سطح عدم توازن با دقت مدیریت شود. کلاس نامتوازن همچنین با یادگیریِ حساس به هزینه نیز مرتبط است؛ یادگیریِ حساس به هزینه یکی دیگر از مسائل مهم در بحث یادگیری ماشین است. طبقه بندی اشتباه در کلاس اقلیت در مقایسه با طبقه بندی اشتباه در کلاس اکثریت، بغرنج تر است. برای مثال، تأیید درخواست یک کارت اعتباری جعلی در مقایسه با مسأله ی کاهش اعتماد، پرهزینه تر است. Breiman و همکارانش [7] اشاره دارند که حجم مجموعه داده آموزشی، کلاس پیشنهادی، هزینه ی خطاهای کلاس های مختلف و تعیین مرزهای تصمیم گیری، همگی عواملی هستند که ارتباط بسیار نزدیکی با یکدیگر دارند. در واقع، بسیاری از روش های ارائه شده برای حل مسأله ی کلاس های نامتوازن، به ارتباط میان این چهار عامل بستگی دارند. روش های نمونه برداری با تغییر اندازه ی کلاس های اقلیت و اکثریت (در مجموعه داده آموزشی)، مسأله ی کلاس نامتوازن را مدیریت می کنند. یادگیری حساس به هزینه، با در نظر گرفتن هزینه های مختلف برای دو کلاس (کلاس های اقلیت و اکثریت) به مدیریت مسأله ی کلاس نامتوازن می پردازد؛ یادگیری حساس به هزینه به عنوان یکی از روش های مهم برای حل مسأله ی کلاس نامتوازن در نظر گرفته می شود [37]. اطلاعات بیشتر درباره ی روش های یادگیری کلاس نامتوازن در بخش 2 ارائه شده است. در این مقاله با استفاده از دسته بندهای تجمیعی، که براساس زیرنمونه برداری از چندین مجموعه داده آموزشی ساخته شده اند، صرفا به بررسی مسائل طبقه بندیِ باینری می پردازیم. روش زیرنمونه برداری، یک روش کارآمد برای یادگیری کلاس های نامتوازن است. در این روش برای آموزشِ طبقه بند از زیرمجموعه ای از کلاس اکثریت استفاده می شود. از آنجاییکه بسیاری از نمونه های کلاس اکثریت نادیده گرفته می شوند، بنابراین مجموعه داده ی آموزشی بیشتر متوازن می شود و درنتیجه فرایند آموزش نیز سریع تر انجام می شود. با این حال، ایراد اصلی در روش زیرنمونه برداری این است که در این روش نسبت به اطلاعات بسیار مفید موجود در نمونه های نادیده گرفته شده، توجهی نمی شود. ما در روش پیشنهادی ضمن حفظ سرعت بالای آموزشِ روش زیرنمونه برداری، می خواهیم داده های نادیده گرفته شده را کشف نماییم.

نمونه متن انگلیسی مقاله

INTRODUCTION: In many real-world problems, the data sets are typically imbalanced, i.e., some classes have much more instances than others. The level of imbalance (ratio of size of the majority class to minority class) can be as huge as 106 [41]. It is noteworthy that class-imbalance is emerging as an important issue in designing classifiers [11], [23], [37]. Imbalance has a serious impact on the performance of classifiers. Learning algorithms that do not consider class-imbalance tend to be overwhelmed by the majority class and ignore the minority class [10]. For example, in a problem with imbalance level 99, a learning algorithm that minimizes error rate could decide to classify all examples as the majority class in order to achieve a low error rate of 1%. However, all minority class examples will be wrongly classified in this case. In problems where the imbalance level is huge, class-imbalance must be carefully handled to build a good classifier. Class-imbalance is also closely related to cost-sensitive learning, another important issue in machine learning. Misclassifying a minority class instance is usually more serious than misclassifying a majority class one. For example, approving a fraudulent credit card application is more costly than declining a credible one. Breiman et al. [7] pointed out that training set size, class priors, cost of errors in different classes, and placement of decision boundaries are all closely connected. In fact, many existing methods for dealing with class-imbalance rely on connections among these four components. Sampling methods handle class-imbalance by varying the minority and majority class sizes in the training set. Cost-sensitive learning deals with class-imbalance by incurring different costs for the two classes and is considered as an important class of methods to handle class-imbalance [37]. More details about class-imbalance learning methods are presented in Section II. In this paper we examine only binary classification problems by ensembling classifiers built from multiple under-sampled training sets. Under-sampling is an efficient method for class-imbalance learning. This method uses a subset of the majority class to train the classifier. Since many majority class examples are ignored, the training set becomes more balanced and the training process becomes faster. However, the main drawback of under-sampling is that potentially useful information contained in these ignored examples is neglected. The intuition of our proposed methods is then to wisely explore these ignored data, while keeping the fast training speed of under-sampling.

توضیحات و مشاهده مقاله انگلیسی

محتوی بسته دانلودی:

PDF مقاله انگلیسی ورد (WORD) ترجمه مقاله به صورت کاملا مرتب
قیمت : 30,000 تومان

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “دانلود ترجمه مقاله روش زیرنمونه برداری اکتشافی برای حل مسأله آموزش کلاس های نامتوازن”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

هفده + دوازده =

مقالات ترجمه شده

نماد اعتماد الکترونیکی

پشتیبانی

logo-samandehi