دانلود ترجمه مقاله روش هوشمند مبتنی بر یادگیری ماشین برای تحلیل کلان داده
عنوان فارسی |
روش ترکیبی هوشمند مبتنی بر یادگیری ماشین برای تحلیل بهبود یافته کلان داده |
عنوان انگلیسی |
Hybrid Machine Learning-Based Intelligent Technique for Improved Big Data Analytics |
کلمات کلیدی : |
  یادگیری ماشین؛ تحلیل کلان داده؛ انتخاب نمونه؛ کاهش داده؛ تشخیص مرز |
درسهای مرتبط | مهندسی کامپیوتر |
تعداد صفحات مقاله انگلیسی : 5 | نشریه : IEEE |
سال انتشار : 2019 | تعداد رفرنس مقاله : 15 |
فرمت مقاله انگلیسی : PDF | نوع مقاله : ISI |
پاورپوینت :
ندارد سفارش پاورپوینت این مقاله |
وضعیت ترجمه مقاله : انجام شده و با خرید بسته می توانید فایل ترجمه را دانلود کنید |
1. مقدمه 2. تشخیص لبه 3. آزمایشات 4. نتیجه گیری
چکیده – برآورد می شود میانگین حجم داده تولید شده در روز بیش از 2.5 کوئینتیلیون (1018×2.5) بایت باشد. به علاوه تخمین زده می شود تا سال 2020، در هر ثانیه 1.79 مگابایت داده توسط هر فرد در جهان تولید شود. ظاهراً مجموعه داده های بزرگ حاوی مقدار عظیمی از اطلاعات ارزشمند هستند که برای تصمیم گیری بهتر قابل استفاده است. با این حال پردازش کارآمد کلان داده به مقدار عجیبی از حافظه و منابع محاسباتی نیاز دارد. الگوریتم های یادگیری ماشین ابزارهای کارآمد محبوبی هستند که برای تحلیل و استخراج دانش پنهان از مجموعه داده ها بکار گرفته می شوند. با این حال برخی از این الگوریتم ها اساساً برای کار با مجموعه داده های کلان طراحی نشده بودند، بنابراین با افزایش اندازه داده، پیچیدگی محاسباتی آنها کاهش می یابد. در نتیجه این امر تحلیل کلان داده را بسیار کند یا غیرواقعی می کند. بنابراین نیاز به روش های سریع و کارآمد برای تحلیل کلان داده مشهود است. این مقاله یک روش ترکیبی هوشمند یادگیری ماشین مناسب برای تحلیل کلان داده (به نام EDISA_ML) معرفی می کند. این روش یک الگوریتم تشخیص مرز و انتخاب نمونه با الهام از تشخیص لبه در پردازش تصویر است. این الگوریتم با چهار الگوریتم یادگیری ماشین و مجموعه داده کلان ارزیابی شد و نتایج نشان می دهد که به کاهش حافظه ذخیره سازی بیش از 50% دست یافته و همزمان سرعت آموزش الگوریتم یادگیری ماشین ارزیابی شده بدون تاثیر معنادار بر دقت پیش بینی، تا 90% (در برخی موارد) بهتر شده است. مقدمه: بخاطر گسترش فناوری اطلاعات، مقدار عظیمی از داده به صورت دیجیتال یا روی اینترنت مبادله می شود. این امر منجر به گسترش مجموعه داده های کلان و در نتیجه روبرو شدن با مشکل بهینه سازی سرعت در تحلیل کلان داده شده است. در این بررسی برخی روش ها [6-1] در نشریات برای رفع این مسئله ارائه شده و برخی از آنها برای بهبود سرعت تحلیل داده طراحی شده است، مانند نمونه برداری [7]، یادگیری ماشین [8]، و متاابتکار [6]. لیوا و همکاران [3] سه روش کاهش داده با استفاده از مفهوم مجموعه محلی [9] پیشنهاد کردند. کاربونرا دو روش (LDIS [4] و XLDIS [10]) برای انتخاب نمونه های مهم از مجموعه داده ها معرفی کرد. به علاوه، راتی و همکاران [6] یک روش کاهش داده برای چارچوب های چندمنظوره با استفاده از الگوریتم ژنتیک معرفی کردند. برخی از این روش ها به تنهایی یا در ترکیب با روش های سنتی داده کاوی برای دستیابی به تحلیل بهتر داده استفاده می شوند [11].
The average volume of data produced daily is estimated to be over 2.5 quintillion byte. Moreover, by year 2020, it is estimated that 1.79MB of data will be created every second by each person in the world. Apparently, big datasets contain tremendous amount of valuable information that can be used for improved decision making. However, big data requires incredible amount of storage and computational resources for effective processing. Machine Learning (ML) algorithms are effective tools popularly used to analyze and extract concealed insights from datasets. However, some ML algorithms were not originally designed to handle big datasets, hence their computational complexity decreases with increase in data size. Consequently, this makes big data analytics extremely slow or unrealistic. Therefore, there is an obvious need for fast and effective techniques for big data analytics. This paper introduces an intelligent hybrid ML-based technique suitable for big data analytics (called EDISA_ML). EDISA_ML is a boundary detection and instance selection algorithm, inspired by edge detection in image processing. It was evaluated on four ML algorithms and big datasets, and the results show that it achieved a storage reduction of over 50% and simultaneously improved the training speed of the evaluated ML algorithms by over 93% (in some cases), without meaningfully affecting their prediction accuracy. INTRODUCTION: Due to the wide spread of information technology, huge amount of data is currently exchanged digitally or on the internet. This has led to the dispensation of big datasets, and consequently led to the speed optimization problem experienced by big data analytics. In view of this, some techniques [1-6] have been presented in literature to handle this problem, and some of them were designed to improve the speed of data analytics, including sampling [7], Machine Learning (ML) [8], and metaheuristics [6]. Leyva et al. [3] proposed three data reduction techniques using the concept of local set [9]. Besides, Carbonera introduced two techniques (LDIS [4] and XLDIS [10]) for selecting relevant instances from datasets. In addition, Rathee et al. [6] introduced a data reduction technique for multi-objective frameworks using Genetic Algorithm. Some of these techniques were used alone or combined with traditional data mining techniques to achieve improved data analytics [11]. Although, some traditional data analytics methods perform excellently when applied to small-scale dataset, they were not originally designed to handle large-scale datasets [11].
ترجمه این مقاله در 9 صفحه آماده شده و در ادامه نیز صفحه 6 آن به عنوان نمونه قرار داده شده است که با خرید این محصول می توانید، فایل WORD و PDF آن را دریافت نمایید.
محتوی بسته دانلودی:
PDF مقاله انگلیسی ورد (WORD) ترجمه مقاله به صورت کاملا مرتب (ترجمه شکل ها و جداول به صورت کاملا مرتب)
دیدگاهها
هیچ دیدگاهی برای این محصول نوشته نشده است.