دسته بندی:
شبکه های عصبی - Neural Networks
سال انتشار:
2020
ترجمه فارسی عنوان مقاله:
پراکراست: یک جریان داده و شتاب دهنده برای شبکه عصبی مصنوعی پراکنده
عنوان انگلیسی مقاله:
Procrustes: a Dataflow and Accelerator for Sparse Deep Neural Network Training
منبع:
Appears in the Proceedings of the 53rd IEEE/ACM International Symposium on Microarchitecture (MICRO 2020)
نویسنده:
Dingqing Yangy, Amin Ghasemazary∗, Xiaowei Reny∗, Maximilian Golubz, Guy Lemieuxy, and Mieszko Lisy
چکیده انگلیسی:
The success of DNN pruning has led to the development of energy-efficient inference accelerators that support pruned models with sparse weight and activation tensors. Because the memory layouts and dataflows in these architectures are optimized for the access patterns during inference, however, they do not efficiently support the emerging sparse training techniques. In this paper, we demonstrate (a) that accelerating sparse training requires a co-design approach where algorithms are adapted to suit the constraints of hardware, and (b) that hardware for sparse DNN training must tackle constraints that do not arise in inference accelerators. As proof of concept, we adapt a sparse training algorithm to be amenable to hardware acceleration; we then develop dataflow, data layout, and loadbalancing techniques to accelerate it. The resulting system is a sparse DNN training accelerator that produces pruned models with the same accuracy as dense models without first training, then pruning, and finally retraining, a dense model. Compared to training the equivalent unpruned models using a state-of-the-art DNN accelerator without sparse training support, Procrustes consumes up to 3.26× less energy and offers up to 4× speedup across a range of models, while pruning weights by an order of magnitude and maintaining unpruned accuracy.
چکیده فارسی:
موفقیت DNN به توسعه استنتاج انرژی سبب شدهاست که از مدلهای سرشاخه با وزن پراکنده و تنسور های فعالسازی پشتیبانی میکند . از آنجا که چیدمان های حافظه و جریان داده ها در این ساختارها برای الگوهای دسترسی طی استنتاجی بهینهسازی شدهاند ، با این حال ، آنها به طور موثر از تکنیکهای پیشرفته آموزش پراکنده پشتیبانی نمیکنند . (الف)در این مقاله ، ما نشان میدهیم که تسریع آموزش پراکنده نیازمند یک رویکرد طراحی مشترک است که در آن الگوریتمها با محدودیتهای سختافزاری سازگار میشوند ، و ( ب ) سختافزار برای آموزش DNN پراکنده باید با محدودیتهایی که در شتاب دهنده استنتاج بوجود نمیآیند ، مقابله کند . به عنوان اثباتی بر مفهوم ، ما یک الگوریتم آموزشی پراکنده را با سرعت سختافزار سازگار میکنیم ؛ سپس جریان داده ، چیدمان دادهها ، و تکنیکهای توازن بار برای تسریع آن را توسعه میدهیم . سیستم حاصل یک شتابدهنده آموزشی پراکنده است که سرشاخه را با دقت یکسان به عنوان مدلهای متراکم بدون آموزش اول ، سپس شاخه و در نهایت ، یک مدل متراکم ، تولید میکند . در مقایسه با آموزش مدلهای معادل بدون متراکم با استفاده از یک شتابدهنده - art DNN بدون پشتیبانی آموزشی پراکنده ، پراکراست انرژی کمتری مصرف میکند و چهار سرعت را در دامنه مدلها ارایه میدهد، در حالی که اوزان با ترتیب اندازه و حفظ دقت بدون سرشاخه افزایش مییابد .
حجم فایل: 0 کیلوبایت
قیمت: 62400 تومان
توضیحات اضافی: یک مقاله عالی دز زمینه یادگیری عمیق و شبکه های عصبی
تعداد نظرات : 0