دانلود مقاله و خرید ترجمه:انتخاب زیرمجموعه از طریق بهینه سازی Pareto - 2015

یلدا

کارابرن عزیز، مقالات isi بالاترین کیفیت ترجمه را دارند، ترجمه آنها کامل و دقیق می باشد (محتوای جداول و شکل های نیز ترجمه شده اند) و از بهترین مجلات isi انتخاب گردیده اند. همچنین تمامی ترجمه ها دارای ضمانت کیفیت بوده و در صورت عدم رضایت کاربر مبلغ عینا عودت داده خواهد شد.

پشتیبانی
اپلیکشن اندروید
آرشیو مقالات
ورود اعضا
توجه توجه توجه !!!!
تمامی مقالات ترجمه شده ، انگلیسی و کتاب های این سایت با دقت تمام انتخاب شده اند. در انتخاب مقالات و کتاب ها پارامترهای جدید بودن، پر جستجو بودن، درخواست کاربران ، تعداد صفحات و ... لحاظ گردیده است. سعی بر این بوده بهترین مقالات در هر زمینه انتخاب و در اختیار شما کاربران عزیز قرار گیرد. ضمانت ما، کیفیت ماست.
نرم افزار winrar

از نرم افزار winrar برای باز کردن فایل های فشرده استفاده می شود. برای دانلود آن بر روی لینک زیر کلیک کنید
دانلود

پیوندهای کاربردی
پیوندهای مرتبط
مقالات ترجمه شده شبکه های عصبی ( Neural Networks )
  • Subset Selection by Pareto Optimization انتخاب زیرمجموعه از طریق بهینه سازی Pareto
    دانلود مقاله isi | دانلود مقاله انگلیسی رایگان | خرید ترجمه فارسی مقاله

    سال انتشار:

    2015


    ترجمه فارسی عنوان مقاله:

    انتخاب زیرمجموعه از طریق بهینه سازی Pareto


    عنوان انگلیسی مقاله:

    Subset Selection by Pareto Optimization


    منبع:

    ACM, Neural Information Processing Systems, 2015, Pages 1774-1782


    نویسنده:

    Chao Qian, Yang Yu, Zhi-Hua Zhou


    چکیده انگلیسی:

    Selecting the optimal subset from a large set of variables is a fundamental problem in various learning tasks such as feature selection, sparse regression, dictionary learning, etc. In this paper, we propose the POSS approach which employs evolutionary Pareto optimization to find a small-sized subset with good performance. We prove that for sparse regression, POSS is able to achieve the best-so-far theoretically guaranteed approximation performance efficiently. Particularly, for the Exponential Decay subclass, POSS is proven to achieve an optimal solution. Empirical study verifies the theoretical results, and exhibits the superior performance of POSS to greedy and convex relaxation methods.


    چکیده فارسی:

    انتخاب زیرمجموعه بهینه از مجموعه بزرگ متغیرها در واقع مشکل اساسی در فعالیت های مختلف یادگیری است ٬ همانند : انتخاب ویژگی ٬ رگرسیون پراکنده و یادگیری دیکشنری و غیره. در این مقاله ما رویکرد POSS (انتخاب زیرمجموعه بهینه سازی پارتو ) را پیشنهاد می دهیم که بهینه سازی تکاملی Pareto را بکار می گیرد تا زیرمجموعه در اندازه کوچک و با عملکرد مناسب یافت شود . ما ثابت می نماییم که برای رگرسیون پراکنده ٬ رویکرد POSS قادر است تا به لحاظ نظری عملکرد تقریب تضمین شده موثر را که تا به حال بهترین بوده است بدست آورد . به ویژه ٬ برای زیرمجموعه Exponential Decay ٬ ثابت شده است که رویکرد مذکور راه حل بهینه ای را بدست می آورد . تحقیقات تجربی توانسته است نتایج نظری را بازبینی نماید و عملکرد برتر رویکرد POSS را برای روش های بهینه سازی محدب و الگوریتم حریصانه نمایش دهد .


    سطح: متوسط
    تعداد صفحات فایل pdf انگلیسی: 9
    تعداد صفحات فایل doc فارسی(با احتساب مراجع): 28

    وضعیت ترجمه عناوین تصاویر و جداول: به صورت کامل ترجمه شده است

    وضعیت ترجمه متون داخل تصاویر و جداول: به صورت کامل ترجمه شده است

    حجم فایل: 781 کیلوبایت


    قیمت: 35000 تومان  28000 تومان(20% تخفیف)


    توضیحات اضافی:




اگر این مقاله را پسندیدید آن را در شبکه های اجتماعی به اشتراک بگذارید (برای به اشتراک گذاری بر روی ایکن های زیر کلیک کنید)

این مقاله را در فیس بوک به اشتراک بگذارید این مقاله را در توییتر به اشتراک بگذارید این مقاله را در لینکداین به اشتراک بگذارید این مقاله را در گوگل پلاس به اشتراک بگذارید این مقاله را در زینگ به اشتراک بگذارید این مقاله را در تلگرام به اشتراک بگذارید

تعداد نظرات : 0

الزامی
الزامی
الزامی
شبکه-های-عصبی
موضوعات
footer