دانلود ترجمه مقاله ویژگی های یادگیری عمیق برای طبقه بندی خودکار احساسات انسان با EEG
عنوان فارسی |
بررسی ویژگی های یادگیری عمیق برای طبقه بندی خودکار احساسات انسان با استفاده از ریتم های الکتروآنسفالوگرام یا نوار مغزی (EEG) |
عنوان انگلیسی |
Exploring Deep Learning Features for Automatic Classification of Human Emotion Using EEG Rhythms |
کلمات کلیدی : |
  طبقهبندی احساسات مبتنی بر EEG؛ ریتمهای EEG؛ تبدیل موجک پیوسته (CWT)؛ ویژگیهای عمیق؛ مدلهای پیش آموزش دیده CNN |
درسهای مرتبط | مهندسی پزشکی |
تعداد صفحات مقاله انگلیسی : 8 | نشریه : IEEE |
سال انتشار : 2021 | تعداد رفرنس مقاله : 35 |
فرمت مقاله انگلیسی : PDF | نوع مقاله : ISI |
پاورپوینت :
ندارد سفارش پاورپوینت این مقاله |
وضعیت ترجمه مقاله : انجام شده و با خرید بسته می توانید فایل ترجمه را دانلود کنید |
1. مقدمه 2. روش پیشنهادی 3. کارهای تجربی یا تحقیقاتی 4. نتیجه گیری
چکیده – تشخیص احساسات (ER) از سیگنال های الکتروآنسفالوگرام یا نوار مغزی (EEG) به دلیل ماهیت غیر خطی و غیر ایستایی سیگنال های EEG همواره یک کار چالش برانگیز بوده است. روش های موجود استخراج ویژگی نمی توانند ویژگی های پنهان عمیق سیگنال های EEG را از لایه های مختلف برای طرح طبقه بندی کارآمد استخراج کنند و همچنین انتخاب روش های مناسب و موثر استخراج ویژگی برای انواع مختلف داده های EEG امری دشوار است. از این رو، این مطالعه در نظر دارد یک روش موثر مبتنی بر استخراج ویژگی عمیق را براي طبقه بندي خودکار وضعیت احساسی افراد توسعه دهد. به منظور کشف ویژگی های عمیق قابل اعتماد، پنج مدل شبکه عصبی پیچشی یا کانولوشن (CNN رده ای از شبکه های عصبی ژرف هستند که معمولاً برای انجام تحلیل های تصویری یا گفتاری در یادگیری ماشین استفاده می شوند) در نظر گرفته شده اند که عبارتند از: AlexNet،VGG16 ،ResNet50 ، SqueezeNet و MobilNetv2. پیش پردازش، تبدیل موجک (WT)،و تبدیل موجک پیوسته (CWT) براي تبدیل سیگنال های EEG به تصاویر ریتم EEG به کار گرفته می شوند، سپس از پنج مدل معروف CNN که از قبل آموزش دیده شده است، براي استخراج ویژگی ها به کار گرفته می شوند. در نهایت، روش پیشنهادی، ویژگی های به دست آمده را به عنوان ورودی به روش ماشین بردار پشتیبان (SVM) در جهت طبقه بندي آنها به کلاس های احساسی دوگانه تبیین می کند که این دو کلاس شامل: کلاس هاي خوشایندی یا ظرفیت (valence) و برانگیختگی (arousal) می باشد. مجموعه داده هاي DEAP در کارهای تجربی مورد استفاده قرار گرفت. نتایج تجربی نشان می دهد که ویژگی های Alex-Net (با ریتم آلفا نمرات دقت بهتری ( 91.07 % در کانال OZ) نسبت به سایر ویژگی های عمیق برای تبعیض ظرفیت تولید می کند و ویژگی هاي MobilNetv2 بالاترین امتیاز دقت ( 98.93 % در ریتم دلتا ( با کانال C3) برای برانگیختگی تبعیض را به دست می دهد. مقدمه: خود احساسات از تغییرات نوروفیزیولوژیکی مرتبط با افکار، پاسخهای رفتاری و درجهای از لذت یا نارضایتی تشکیل شده است [1,2]. احساسات، که از حالات چهره فرد استنباط میشوند، نقش مهمی در ارتباط بین انسان با انسانی دیگر دارند. صداها و حرکات بدن از دیگر شاخصهای احساسی مهم هستند. بخش اصلی احساسات در زندگی روزمره انسان، مدیریت توجه [3,4] و تصمیمگیری [5,6] است. تشخیص احساسات میتواند هوش مصنوعی مختلف مبتنی بر کاربردهایی مانند نظارت بر بیمار، کمک به تشخیص علل جرم، خدمات امنیتی، رباتیک و ارتباطات را بهبود بخشد [7,8]. چندین روش برای طبقهبندی احساسات مانند سیگنالهای زیستی (مانند EEG، ECG و EMG و غیره)، تکنیکهای تصویربرداری و ویدئوها وجود دارد [8,9].
Emotion recognition (ER) from Electroencephalogram (EEG) signals is a challenging task due to the non-linearity and non-stationarity nature of EEG signals. Existing feature extraction methods cannot extract the deep concealed characteristics of EEG signals from different layers for efficient classification scheme and also hard to select appropriate and effective feature extraction methods for different types of EEG data. Hence this study intends to develop an efficient deep feature extraction based method to automatically classify emotion status of people. In order to discover reliable deep features, five deep convolutional neural networks (CNN) models are considered: AlexNet, VGG16, ResNet50, SqueezeNet and MobilNetv2. Pre-processing, Wavelet Transform (WT), and Continuous Wavelet Transform (CWT) are employed to convert the EEG signals into EEG rhythm images then five well-known pretrained CNN models are employed for feature extraction. Finally, the proposed method puts the obtained features as input to the support vector machine (SVM) method for classifying them into binary emotion classes: valence and arousal classes. The DEAP dataset was used in experimental works. The experimental results demonstrate that the AlexNet features with Alpha rhythm produces better accuracy scores (91.07% in channel Oz) than the other deep features for the valence discrimination, and the MobilNetv2 features yields the highest accuracy score (98.93% in Delta rhythm (with channel C3) for arousal discrimination. INTRODUCTION: Emotion itself is constituted of neuro-physiological variations associated with thoughts, behavioral responses and a degree of pleasure or displeasure [1], [2]. Emotions, which is understood from facial expressions, have important role in human-to-human communication. Sounds and body gestures are the other important emotion indicators. The major part of the emotions in human’s daily life is the management of attention [3], [4] and decision-making [5], [6]. Emotion detection can improve various artificial intelligence based, applications namely, patient monitoring, criminal detection disabled assistance, security services, robotics, and communication [7], [8]. There have been several methods for classification of emotions such as bio signals (e.g. EEG, electrocardiogram (ECG) and electromyography (EMG) etc.), imaging techniques and videos [9], [8].
ترجمه این مقاله در 20 صفحه آماده شده و در ادامه نیز صفحه 14 آن به عنوان نمونه قرار داده شده است که با خرید این محصول می توانید، فایل WORD و PDF آن را دریافت نمایید.
محتوی بسته دانلودی:
PDF مقاله انگلیسی ورد (WORD) ترجمه مقاله به صورت کاملا مرتب (ترجمه شکل ها و جداول به صورت کاملا مرتب)
دیدگاهها
هیچ دیدگاهی برای این محصول نوشته نشده است.