دانلود مقاله انگلیسی رایگان:بهینه سازی اختصاص حافظه بر مبنای یادگیری برای پردازش داده های بزرگ با حساسیت تاخیری - 2018

روز دانشجو

کارابرن عزیز، مقالات isi بالاترین کیفیت ترجمه را دارند، ترجمه آنها کامل و دقیق می باشد (محتوای جداول و شکل های نیز ترجمه شده اند) و از بهترین مجلات isi انتخاب گردیده اند. همچنین تمامی ترجمه ها دارای ضمانت کیفیت بوده و در صورت عدم رضایت کاربر مبلغ عینا عودت داده خواهد شد.

پشتیبانی
اپلیکشن اندروید
آرشیو مقالات
ورود اعضا
توجه توجه توجه !!!!
تمامی مقالات ترجمه شده ، انگلیسی و کتاب های این سایت با دقت تمام انتخاب شده اند. در انتخاب مقالات و کتاب ها پارامترهای جدید بودن، پر جستجو بودن، درخواست کاربران ، تعداد صفحات و ... لحاظ گردیده است. سعی بر این بوده بهترین مقالات در هر زمینه انتخاب و در اختیار شما کاربران عزیز قرار گیرد. ضمانت ما، کیفیت ماست.
نرم افزار winrar

از نرم افزار winrar برای باز کردن فایل های فشرده استفاده می شود. برای دانلود آن بر روی لینک زیر کلیک کنید
دانلود

پیوندهای کاربردی
پیوندهای مرتبط
دانلود مقاله انگلیسی داده های بزرگ رایگان
  • Learning-Based Memory Allocation Optimization for Delay-Sensitive Big Data Processing Learning-Based Memory Allocation Optimization for Delay-Sensitive Big Data Processing
    Learning-Based Memory Allocation Optimization for Delay-Sensitive Big Data Processing

    سال انتشار:

    2018


    عنوان انگلیسی مقاله:

    Learning-Based Memory Allocation Optimization for Delay-Sensitive Big Data Processing


    ترجمه فارسی عنوان مقاله:

    بهینه سازی اختصاص حافظه بر مبنای یادگیری برای پردازش داده های بزرگ با حساسیت تاخیری


    منبع:

    IEEE - IEEE TRANSACTIONS ON PARALLEL AND DISTRIBUTED SYSTEMS, VOL: 29, NO: 6, JUNE 2018


    نویسنده:

    Linjiun Tsai, Hubertus Franke, Chung-Sheng L،Wanjiun Liao


    چکیده انگلیسی:

    Optimal resource provisioning is essential for scalable big data analytics. However, it has been difficult to accurately forecast the resource requirements before the actual deployment of these applications as their resource requirements are heavily application and data dependent. This paper identifies the existence of effective memory resource requirements for most of the big data analytic applications running inside JVMs in distributed Spark environments. Provisioning memory less than the effective memory requirement may result in rapid deterioration of the application execution in terms of its total execution time. A machine learning-based prediction model is proposed in this paper to forecast the effective memory requirement of an application given its service level agreement. This model captures the memory consumption behavior of big data applications and the dynamics of memory utilization in a distributed cluster environment. With an accurate prediction of the effective memory requirement, it is shown that up to 60 percent savings of the memory resource is feasible if an execution time penalty of 10 percent is acceptable. The accuracy of the model is evaluated on a physical Spark cluster with 128 cores and 1TB of total memory. The experiment results show that the proposed solution can predict the minimum required memory size for given acceptable delays with high accuracy, even if the behavior of target applications is unknown during the training of the model.
    Index Terms: Big data, spark, memory over-commitment, garbage collection, profiling, modeling, performance-cost tradeoff


    سطح: متوسط
    تعداد صفحات فایل pdf انگلیسی: 10
    حجم فایل: 834 کیلوبایت

    قیمت: رایگان


    توضیحات اضافی:




آرشیو کامل مقالات

اگر این مقاله را پسندیدید آن را در شبکه های اجتماعی به اشتراک بگذارید (برای به اشتراک گذاری بر روی ایکن های زیر کلیک کنید)

این مقاله را در فیس بوک به اشتراک بگذارید این مقاله را در توییتر به اشتراک بگذارید این مقاله را در لینکداین به اشتراک بگذارید این مقاله را در گوگل پلاس به اشتراک بگذارید این مقاله را در زینگ به اشتراک بگذارید این مقاله را در تلگرام به اشتراک بگذارید

تعداد نظرات : 0

الزامی
الزامی
الزامی
داده-های-بزرگ
موضوعات
footer