دانلود مقاله انگلیسی رایگان:هرس ساختاری شبکه های عصبی مکرر از طریق انتخاب نورون - 2020
بلافاصله پس از پرداخت دانلود کنید

با سلام خدمت کاربران عزیز، به اطلاع می رساند ترجمه مقالاتی که سال انتشار آن ها زیر 2008 می باشد رایگان بوده و میتوانید با وارد شدن در صفحه جزییات مقاله به رایگان ترجمه را دانلود نمایید.

دانلود مقاله انگلیسی شبکه های نورونی رایگان
  • Structured pruning of recurrent neural networks through neuron selection Structured pruning of recurrent neural networks through neuron selection
    Structured pruning of recurrent neural networks through neuron selection

    سال انتشار:

    2020


    عنوان انگلیسی مقاله:

    Structured pruning of recurrent neural networks through neuron selection


    ترجمه فارسی عنوان مقاله:

    هرس ساختاری شبکه های عصبی مکرر از طریق انتخاب نورون


    منبع:

    Sciencedirect - Elsevier - Neural Networks, 123 (2020) 134-141. doi:10.1016/j.neunet.2019.11.018


    نویسنده:

    Liangjian Wena, Xuanyang Zhang a, Haoli Bai b, Zenglin Xu a,c,∗


    چکیده انگلیسی:

    Recurrent neural networks (RNNs) have recently achieved remarkable successes in a number of applications. However, the huge sizes and computational burden of these models make it difficult for their deployment on edge devices. A practically effective approach is to reduce the overall storage and computation costs of RNNs by network pruning techniques. Despite their successful applications, those pruning methods based on Lasso either produce irregular sparse patterns in weight matrices, which is not helpful in practical speedup. To address these issues, we propose a structured pruning method through neuron selection which can remove the independent neuron of RNNs. More specifically, we introduce two sets of binary random variables, which can be interpreted as gates or switches to the input neurons and the hidden neurons, respectively. We demonstrate that the corresponding optimization problem can be addressed by minimizing the L0 norm of the weight matrix. Finally, experimental results on language modeling and machine reading comprehension tasks have indicated the advantages of the proposed method in comparison with state-of-the-art pruning competitors. In particular, nearly 20× practical speedup during inference was achieved without losing performance for the language model on the Penn TreeBank dataset, indicating the promising performance of the proposed method.
    Keywords: Feature selection | Recurrent neural networks | Learning sparse models | Model compression


    سطح: متوسط
    تعداد صفحات فایل pdf انگلیسی: 8
    حجم فایل: 698 کیلوبایت

    قیمت: رایگان


    توضیحات اضافی:




اگر این مقاله را پسندیدید آن را در شبکه های اجتماعی به اشتراک بگذارید (برای به اشتراک گذاری بر روی ایکن های زیر کلیک کنید)

تعداد نظرات : 0

الزامی
الزامی
الزامی
rss مقالات ترجمه شده rss مقالات انگلیسی rss کتاب های انگلیسی rss مقالات آموزشی
logo-samandehi