دانلود ترجمه مقاله تقویت کارایی شتاب دهنده CNN پراکنده با تجزیه هسته

عنوان فارسی :

ESCALATE: تقویت کارایی شتاب دهنده CNN پراکنده با تجزیه هسته

عنوان انگلیسی :

ESCALATE: Boosting the Efficiency of Sparse CNN Accelerator with Kernel Decomposition

کلمات کلیدی :

  شبکه های عصبی پیچشی؛ تجزیه هسته؛ فشرده سازی شبکه عصبی؛ شتاب دهنده های پراکنده

درسهای مرتبط : مهندسی کامپیوتر؛ یادگیری عمیق و هوش مصنوعی
تعداد صفحات مقاله انگلیسی : 13 نشریه : ACM
سال انتشار : 2021 تعداد رفرنس مقاله : 44
فرمت مقاله انگلیسی : PDF نوع مقاله : ISI
پاورپوینت : ندارد

سفارش پاورپوینت این مقاله

وضعیت ترجمه مقاله : انجام شده و با خرید بسته می توانید فایل ترجمه را دانلود کنید
قیمت دانلود مقاله
64,000 تومان
فهرست مطالب

1. مقدمه 2. پیشینه و انگیزه 3. الگوریتم ESCALATE 4. معماری ESCALATE 5. ارزیابی 6. بحث و بررسی 7. مقالات مرتبط 8. نتیجه گیری

سفارش ترجمه
ترجمه نمونه متن انگلیسی

چکیده – یافته های بدست آمده حاکی از آن است که اندازه پارامتر و هزینه محاسباتی روزافزون مدل‌های شبکه عصبی پیچشی (CNN) موانعی را جهت استقرار آنها بر روی پلتفرم‌هایی با محدودیت منبع ایجاد می کند. در مطالعه حاضر، جهت حذف افزونگی در پارامترهای CNN و ایجاد یک مدل پراکنده، تکنیک‌های هرس شبکه مطرح شده‌ است. همچنین لازم به ذکر است که به منظور کاهش هزینه‌های محاسباتی و پهنای باند حافظه مورد نیاز استنتاج از طریق پراکندگی مدل، شتاب‌دهنده‌های پراکنده نیز مطرح شده‌اند. با این وجود، بی نظمی الگوهای پراکنده، سبب محدود شدن کارایی طرح های پیشنهادی می شود. شایان ذکر است که محققان درصدد هستند که با ایجاد یک الگوی پراکندگی منظم با استفاده از الگوریتم‌های هرس سخت‌افزاری، این موضوع را مورد بررسی قرار دهند. با این وجود، توسط الگوهای پراکندگی اجباری، نرخ هرس این راه حل ها غالبا محدود شده است. این محدودیت، ما را ترغیب می کند تا فراتر از هرس، سایر روش های فشرده سازی را مورد بررسی قرار دهیم. طی دو مرحله محاسباتی تفکیک شده، دریافتیم که به طور بالقوه تجزیه هسته می تواند به خروج پردازش الگوی پراکنده از مسیر بحرانی استنتاج و در نتیجه، دستیابی به نسبت فشرده سازی بالا بدون اعمال الگوهای پراکنده منجر شود. برای دستیابی به این مزایا، در این مطالعه، ESCALATE را که یک رویکرد طراحی مشترک الگوریتم-سخت‌افزار مبتنی بر تجزیه هسته می باشد را مطرح می‌کنیم. لازم به ذکر است که در سطح الگوریتم، ESCALATE دو مرحله محاسباتی پیچش تجزیه شده را با هدف فعال سازی پردازش جریان نگاشت ویژگی میانی مجددا مورد سازماندهی قرار می دهد. همچنین در مطالعه حاضر، به منظور بهره برداری از فرکانس استفاده مجدد متفاوت از هر بخش از وزن تجزیه شده، یک کوانتیزاسیون ترکیبی را مطرح نموده ایم. در سطح معماری، ESCALATE جهت بیشینه سازی مزایای حاصل از پیچیدگی تجزیه شده، یک جریان داده جدید "Basis-First" و طراحی ریزمعماری مربوطه آن را مطرح می کند. در مطالعه حاضر، از طریق چهار مدل CNN در هر دو مجموعه داده CIFAR-10 و ImageNet، ESCALATEرا مورد ارزیابی قرار داده و آنرا با شتاب‌دهنده‌های پراکنده قبلی و الگوریتم‌های هرس مورد مقایسه قرار می دهیم. نتایج بدست آمده حاکی از آن است که ESCALATE می‌تواند نسبت فشرده‌سازی را برای مدل‌های CIFAR-10 و ImageNet به ترتیب تا 325× و 11× به دست آورد. لازم به ذکر است که شتاب‌دهنده ESCALATE به طور میانگین بازده انرژی را به ترتیب 8.3 برابر و 3.77 برابر در مقایسه با شتاب‌دهنده‌های متراکم و پراکنده قبلی افزایش می دهد. همچنین در مقایسه با شتاب‌دهنده‌های متراکم و پراکنده قبلی، به ترتیب تأخیر را 17.9 برابر و 2.16 برابر کاهش می‌دهد.

نمونه متن انگلیسی مقاله

The ever-growing parameter size and computation cost of Convolutional Neural Network (CNN) models hinder their deployment onto resource-constrained platforms. Network pruning techniques are proposed to remove the redundancy in CNN parameters and produce a sparse model. Sparse-aware accelerators are also proposed to reduce the computation cost and memory bandwidth requirements of inference by leveraging the model sparsity. The irregularity of sparse patterns, however, limits the efficiency of those designs. Researchers proposed to address this issue by creating a regular sparsity pattern through hardware-aware pruning algorithms. However, the pruning rate of these solutions is largely limited by the enforced sparsity patterns. This limitation motivates us to explore other compression methods beyond pruning. With two decoupled computation stages, we found that kernel decomposition could potentially take the processing of the sparse pattern off from the critical path of inference and achieve a high compression ratio without enforcing the sparse patterns. To exploit these advantages, we propose ESCALATE, an algorithm-hardware co-design approach based on kernel decomposition. At algorithm level, ESCALATE reorganizes the two computation stages of the decomposed convolution to enable a stream processing of the intermediate feature map. We proposed a hybrid quantization to exploit the different reuse frequency of each part of the decomposed weight. At architecture level, ESCALATE proposes a novel ‘Basis-First’ dataflow and its corresponding microarchitecture design to maximize the benefits brought by the decomposed convolution. We evaluate ESCALATE with four representative CNN models on both CIFAR-10 and ImageNet datasets and compare it against previous sparse accelerators and pruning algorithms. Results show that ESCALATE can achieve up to 325 × and 11 × compression ratio for models on CIFAR-10 and ImageNet, respectively. Comparing with previous dense and sparse accelerators, ESCALATE accelerator averagely boosts the energy efficiency by 8.3 × and 3.77 ×, and reduces the latency by 17.9 × and 2.16 ×, respectively.

توضیحات و مشاهده مقاله انگلیسی

ترجمه این مقاله در 33 صفحه آماده شده و در ادامه نیز صفحه 16 آن به عنوان نمونه قرار داده شده است که با خرید این محصول می توانید، فایل WORD و PDF آن را دریافت نمایید.

محتوی بسته دانلودی:

PDF مقاله انگلیسی ورد (WORD) ترجمه مقاله به صورت کاملا مرتب (ترجمه شکل ها و جداول به صورت کاملا مرتب)
قیمت : 64,000 تومان

نقد و بررسی‌ها

هیچ دیدگاهی برای این محصول نوشته نشده است.

اولین کسی باشید که دیدگاهی می نویسد “دانلود ترجمه مقاله تقویت کارایی شتاب دهنده CNN پراکنده با تجزیه هسته”

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

18 − 11 =

مقالات ترجمه شده

مجوز نماد اعتماد الکترونیکی

پشتیبانی