دانلود ترجمه مقاله حاشیه افزوده Softmax برای تایید چهره
عنوان فارسی |
حاشیه افزوده Softmax برای تایید چهره |
عنوان انگلیسی |
Additive Margin Softmax for Face Verification |
کلمات کلیدی : |
  حاشیه افزوده Softmax؛ تایید چهره؛ تابع هدف؛ مسئله یادگیری متریک |
درسهای مرتبط | شبکه عصبی عمیق؛ پردازش تصویر |
تعداد صفحات مقاله انگلیسی : 7 | نشریه : arxiv |
سال انتشار : 2018 | تعداد رفرنس مقاله : 24 |
فرمت مقاله انگلیسی : PDF | نوع مقاله : ISI |
پاورپوینت :
ندارد سفارش پاورپوینت این مقاله |
وضعیت ترجمه مقاله : انجام شده و با خرید بسته می توانید فایل ترجمه را دانلود کنید |
1. مقدمه 2. مقدمات 3. Softmax حاشیه افزودنی 4. آزمایش 5. نتیجهگیری و کار آینده
در این مقاله، ما یک تابع هدف از نظر مفهومی ساده و از نظر هندسی قابل تفسیر، یعنی حاشیه افزودنی Softmax (AM-Softmax) را برای تأیید چهره عمیق پیشنهاد میکنیم. به طور کلی، کار تایید چهره را میتوان به عنوان یک مسئله یادگیری متریک در نظر گرفت، بنابراین یادگیری ویژگی های چهره با حاشیه زیاد که تفاوت (تنوع) درون کلاسی آنها کم است و اختلاف بین کلاسی نیز زیاد است، برای دستیابی به عملکرد خوب از اهمیت بالایی برخوردار است. اخیراً ، Softmax با حاشیه بزرگ [10] و Softmax زاویه ای [9] برای ترکیب حاشیه زاویهای با یک روش افزاینده پیشنهاد شدهاند. در این کار، ما یک حاشیه زاویه ای افزودنی جدید برای از دست دادن Softmax معرفی میکنیم، که به طور شهودی مطلوب و قابل تفسیرتر از آثار موجود است. ما همچنین بر اهمیت نرمالسازی ویژگیها در مقاله، تأکید و بحث میکنیم. از همه مهمتر، آزمایشهای ما بر روی LFW و MegaFace نشان میدهد که از دست دادن حاشیه افزودنی Softmax ما بطور مداوم بهتر از روشهای مدرن کنونی با استفاده از همان معماری شبکه و مجموعه داده آموزشی است. کدهای ما نیز در دسترس قرار گرفته است.
In this paper, we propose a conceptually simple and geometrically interpretable objective function, i.e. additive margin Softmax (AM-Softmax), for deep face verification. In general, the face verification task can be viewed as a metric learning problem, so learning large-margin face features whose intra-class variation is small and inter-class difference is large is of great importance in order to achieve good performance. Recently, Large-margin Softmax [10] and Angular Softmax [9] have been proposed to incorporate the angular margin in a multiplicative manner. In this work, we introduce a novel additive angular margin for the Softmax loss, which is intuitively appealing and more interpretable than the existing works. We also emphasize and discuss the importance of feature normalization in the paper. Most importantly, our experiments on LFW and MegaFace show that our additive margin softmax loss consistently performs better than the current state-of-the-art methods using the same network architecture and training dataset. Our code has also been made available.
محتوی بسته دانلودی:
PDF مقاله انگلیسی ورد (WORD) ترجمه مقاله به صورت کاملا مرتب (ترجمه شکل ها و جداول به صورت کاملا مرتب)
دیدگاهها
هیچ دیدگاهی برای این محصول نوشته نشده است.