دانلود ترجمه مقاله ویژگی های یادگیری عمیق برای طبقه‌ بندی خودکار احساسات انسان با EEG

عنوان فارسی

بررسی ویژگی های یادگیری عمیق برای طبقه‌ بندی خودکار احساسات انسان با استفاده از ریتم های الکتروآنسفالوگرام یا نوار مغزی (EEG)

عنوان انگلیسی

Exploring Deep Learning Features for Automatic Classification of Human Emotion Using EEG Rhythms

کلمات کلیدی :

  طبقه‌بندی احساسات مبتنی بر EEG؛ ریتم‌های EEG؛ تبدیل موجک پیوسته (CWT)؛ ویژگی‌های عمیق؛ مدل‌های پیش آموزش ‌دیده CNN

درسهای مرتبط مهندسی پزشکی
تعداد صفحات مقاله انگلیسی : 8 نشریه : IEEE
سال انتشار : 2021 تعداد رفرنس مقاله : 35
فرمت مقاله انگلیسی : PDF نوع مقاله : ISI
پاورپوینت : ندارد

سفارش پاورپوینت این مقاله

وضعیت ترجمه مقاله : انجام شده و با خرید بسته می توانید فایل ترجمه را دانلود کنید
IEEE
قیمت دانلود ترجمه مقاله
69,600 تومان
فهرست مطالب

1. مقدمه 2. روش پیشنهادی 3. کارهای تجربی یا تحقیقاتی 4. نتیجه گیری

سفارش ترجمه
ترجمه نمونه متن انگلیسی

چکیده – تشخیص احساسات (ER) از سیگنال های الکتروآنسفالوگرام یا نوار مغزی (EEG) به دلیل ماهیت غیر خطی و غیر ایستایی سیگنال های EEG همواره یک کار چالش برانگیز بوده است. روش های موجود استخراج ویژگی نمی توانند ویژگی های پنهان عمیق سیگنال های EEG را از لایه های مختلف برای طرح طبقه بندی کارآمد استخراج کنند و همچنین انتخاب روش های مناسب و موثر استخراج ویژگی برای انواع مختلف داده های EEG امری دشوار است. از این رو، این مطالعه در نظر دارد یک روش موثر مبتنی بر استخراج ویژگی عمیق را براي طبقه بندي خودکار وضعیت احساسی افراد توسعه دهد. به منظور کشف ویژگی های عمیق قابل اعتماد، پنج مدل شبکه عصبی پیچشی یا کانولوشن (CNN رده ای از شبکه های عصبی ژرف هستند که معمولاً برای انجام تحلیل های تصویری یا گفتاری در یادگیری ماشین استفاده می شوند) در نظر گرفته شده اند که عبارتند از: AlexNet،VGG16 ،ResNet50 ، SqueezeNet و MobilNetv2. پیش پردازش، تبدیل موجک (WT)،و تبدیل موجک پیوسته (CWT) براي تبدیل سیگنال های EEG به تصاویر ریتم EEG به کار گرفته می شوند، سپس از پنج مدل معروف CNN که از قبل آموزش دیده شده است، براي استخراج ویژگی ها به کار گرفته می شوند. در نهایت، روش پیشنهادی، ویژگی های به دست آمده را به عنوان ورودی به روش ماشین بردار پشتیبان (SVM) در جهت طبقه بندي آنها به کلاس های احساسی دوگانه تبیین می کند که این دو کلاس شامل: کلاس هاي خوشایندی یا ظرفیت (valence) و برانگیختگی (arousal) می باشد. مجموعه داده هاي DEAP در کارهای تجربی مورد استفاده قرار گرفت. نتایج تجربی نشان می دهد که ویژگی های Alex-Net (با ریتم آلفا نمرات دقت بهتری ( 91.07 % در کانال OZ) نسبت به سایر ویژگی های عمیق برای تبعیض ظرفیت تولید می کند و ویژگی هاي MobilNetv2 بالاترین امتیاز دقت ( 98.93 % در ریتم دلتا ( با کانال C3) برای برانگیختگی تبعیض را به دست می دهد. مقدمه: خود احساسات از تغییرات نوروفیزیولوژیکی مرتبط با افکار، پاسخ‌های رفتاری و درجه‌ای از لذت یا نارضایتی تشکیل شده ‌است [1,2]. احساسات، که از حالات چهره فرد استنباط می‌شوند، نقش مهمی در ارتباط بین انسان با انسانی دیگر دارند. صداها و حرکات بدن از دیگر شاخص‌های احساسی مهم هستند. بخش اصلی احساسات در زندگی روزمره انسان، مدیریت توجه [3,4] و تصمیم‌گیری [5,6]‏ است. تشخیص احساسات می‌تواند هوش مصنوعی مختلف مبتنی بر کاربردهایی مانند نظارت بر بیمار، کمک به تشخیص علل جرم، خدمات امنیتی، رباتیک و ارتباطات را بهبود بخشد [7,8].‏ چندین روش برای طبقه‌بندی احساسات مانند سیگنال‌های زیستی (‏مانند EEG، ‏ECG و ‏EMG و غیره)‏، تکنیک‌های تصویربرداری و ویدئوها وجود دارد [8,9].

نمونه متن انگلیسی مقاله

Emotion recognition (ER) from Electroencephalogram (EEG) signals is a challenging task due to the non-linearity and non-stationarity nature of EEG signals. Existing feature extraction methods cannot extract the deep concealed characteristics of EEG signals from different layers for efficient classification scheme and also hard to select appropriate and effective feature extraction methods for different types of EEG data. Hence this study intends to develop an efficient deep feature extraction based method to automatically classify emotion status of people. In order to discover reliable deep features, five deep convolutional neural networks (CNN) models are considered: AlexNet, VGG16, ResNet50, SqueezeNet and MobilNetv2. Pre-processing, Wavelet Transform (WT), and Continuous Wavelet Transform (CWT) are employed to convert the EEG signals into EEG rhythm images then five well-known pretrained CNN models are employed for feature extraction. Finally, the proposed method puts the obtained features as input to the support vector machine (SVM) method for classifying them into binary emotion classes: valence and arousal classes. The DEAP dataset was used in experimental works. The experimental results demonstrate that the AlexNet features with Alpha rhythm produces better accuracy scores (91.07% in channel Oz) than the other deep features for the valence discrimination, and the MobilNetv2 features yields the highest accuracy score (98.93% in Delta rhythm (with channel C3) for arousal discrimination. INTRODUCTION: Emotion itself is constituted of neuro-physiological variations associated with thoughts, behavioral responses and a degree of pleasure or displeasure [1], [2]. Emotions, which is understood from facial expressions, have important role in human-to-human communication. Sounds and body gestures are the other important emotion indicators. The major part of the emotions in human’s daily life is the management of attention [3], [4] and decision-making [5], [6]. Emotion detection can improve various artificial intelligence based, applications namely, patient monitoring, criminal detection disabled assistance, security services, robotics, and communication [7], [8]. There have been several methods for classification of emotions such as bio signals (e.g. EEG, electrocardiogram (ECG) and electromyography (EMG) etc.), imaging techniques and videos [9], [8].

توضیحات و مشاهده مقاله انگلیسی

ترجمه این مقاله در 20 صفحه آماده شده و در ادامه نیز صفحه 14 آن به عنوان نمونه قرار داده شده است که با خرید این محصول می توانید، فایل WORD و PDF آن را دریافت نمایید.

محتوی بسته دانلودی:

PDF مقاله انگلیسی ورد (WORD) ترجمه مقاله به صورت کاملا مرتب (ترجمه شکل ها و جداول به صورت کاملا مرتب)
قیمت : 69,600 تومان

نقد و بررسی‌ها

هنوز بررسی‌ای ثبت نشده است.

اولین کسی باشید که دیدگاهی می نویسد “دانلود ترجمه مقاله ویژگی های یادگیری عمیق برای طبقه‌ بندی خودکار احساسات انسان با EEG”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

20 − 4 =

مقالات ترجمه شده

نماد اعتماد الکترونیکی

پشتیبانی

logo-samandehi