دانلود و نمایش مقالات مرتبط با Parallel Processing::صفحه 1
بلافاصله پس از پرداخت دانلود کنید

با سلام خدمت کاربران در صورتی که با خطای سیستم پرداخت بانکی مواجه شدید از طریق کارت به کارت (6037997535328901 بانک ملی ناصر خنجری ) مقاله خود را دریافت کنید (تا مشکل رفع گردد). 

نتیجه جستجو - Parallel Processing

تعداد مقالات یافته شده: 32
ردیف عنوان نوع
1 A new pyramidal opponent color-shape model based video shot boundary detection
A new pyramidal opponent color-shape model based video shot boundary detection-2020
Video shot boundary detection (VSBD) is one of the most essential criteria for many intelligent video analysis-related applications, such as video retrieval, indexing, browsing, categorization and summarization. VSBD aims to segment big video data into meaningful fragments known as shots. This paper put forwards a new pyramidal opponent colour-shape (POCS) model which can detect abrupt transition (AT) and gradual transition (GT) simultaneously, even in the presence of illumination changes, huge object movement between frames, and fast camera motion. First, the content of frames in the video subjected to VSBD is represented by the proposed POCS model. Consequently, the temporal nature of the POCS model is subjected to a suitable segment (SS) selection procedure in order to minimize the complexity of VSBD method. The SS from the video frames is examined for transitions within it using a bagged-trees classifier (BTC) learned on a balanced training set via parallel processing. To prove the superiority of the proposed VSBD algorithm, it is evaluated on the TRECVID 2001, TRECVID2007 and VIDEOSEG2004 data sets for classifying the basic units of video according to no transition (NT), AT and GT. The experimental evaluation results in an F1-score of 95.13%, 98.13% and 97.11% on the TRECVID 2001, TRECVID2007 and VIDEOSEG2004 data sets, respectively.
Keywords: Shot Boundary Detection | Abrupt Transition | Gradual Transition | Opponent Color space | Ensemble Algorithm
مقاله انگلیسی
2 High-performance spatiotemporal trajectory matching across heterogeneous data sources
کارایی بالا تطبیق مسیر مکانی و مکانی در منابع داده ناهمگن - سایپرز ، باشگاه دانش-2020
In the era of big data, the movement of the same object or person can be recorded by different devices with different measurement accuracies and sampling rates. Matching and conflating these heterogeneous trajectories help to enhance trajectory semantics, describe user portraits, and discover specified groups from human mobility. In this paper, we proposed a high-performance approach for matching spatiotemporal trajectories across heterogeneous massive datasets. Two indicators, i.e., Time Weighted Similarity (TWS) and Space Weighted Similarity (SWS), are proposed to measure the similarity of spatiotemporal trajectories. The core idea is that trajectories are more similar if they stay close in a longer time and distance. A distributed computing framework based on Spark is built for efficient trajectory matching among massive datasets. In the framework, the trajectory segments are partitioned into 3-dimensional space–time cells for parallel processing, and a novel method of segment reference point is designed to avoid duplicated computation. We conducted extensive matching experiments on real-world and synthetic trajectory datasets. The experimental results illustrate that the proposed approach outperforms other similarity metrics in accuracy, and the Spark-based framework greatly improves the efficiency in spatiotemporal trajectory matching.
Keywords: Distributed computing | Spatiotemporal big data | Trajectory similarity | Trajectory matching
مقاله انگلیسی
3 A Survey and Taxonomy of FPGA-based Deep Learning Accelerators
مرور و طبقه بندی شتاب دهنده های یادگیری عمیق مبتنی بر FPGA-2019
Deep learning, the fastest growing segment of Artificial Neural Network (ANN), has led to the emergence of many machine learning applications and their implementation across multiple platforms such as CPUs, GPUs and recon- figurable hardware ( Field-Programmable Gate Arrays or FPGAs). However, inspired by the structure and function of ANNs, large-scale deep learning topologies require a considerable amount of parallel processing, memory re- sources, high throughput and significant processing power. Consequently, in the context of real time hardware systems, it is crucial to find the right trade-offbetween performance, energy efficiency, fast development, and cost. Although limited in size and resources, several approaches have showed that FPGAs provide a good starting point for the development of future deep learning implementation architectures. Through this paper, we briefly review recent work related to the implementation of deep learning algorithms in FPGAs. We will analyze and compare the design requirements and features of existing topologies to finally propose development strategies and implementation architectures for better use of FPGA-based deep learning topologies. In this context, we will examine the frameworks used in these studies, which will allow testing a lot of topologies to finally arrive at the best implementation alternatives in terms of performance and energy efficiency.
Keywords: Deep learning | Framework | Optimized implementation | FPGA
مقاله انگلیسی
4 فشرده سازی سریع و کارآمد تصویر لنزی
سال انتشار: 2019 - تعداد صفحات فایل pdf انگلیسی: 8 - تعداد صفحات فایل doc فارسی: 29
تصویربرداری میدانی نوری با به دست دادن اطلاعاتی درباره میزان درخشندگی، رنگ و جهت اشعه های روشن در یک صحنه شناخته می شود. این امر منجر به این می شود که تصویر با مقدار بسیار زیادی داده نمایش داده شود که نیازمند روشهای کارآمد برای کدگذاری هستند. در این مقاله، تصاویر لنزی به صورت تصاویر دارای زیر- روزنه ای ارائه می شوند. این تصاویر به صورت یک داده ورودی دارای ترتیب کاذب برای رمزگشای ویدیوی HEVC سازماندهی می شود. برای بهره برداری بهتر از حشوها و افزونگی های موجود بین تصاویر زیر- روزنه ای همسایه و درپیامد آن، کاهش فواصل بین یک تصویر زیرروزنه ای و مراجع استفاده شده برای پیش بینی آن، تصاویر زیرروزنه ای به چهار گروه کوچکتر تقسیم می شوند که در یک ترتیب مارپیچی بررسی می شوند. از اصلی ترین و مرکزی ترین تصویر زیرروزنه ای که بالاترین شباهت را با همه تصاویر دیگر دارد، به عنوان تصویر مرجع اولیه برای هریک از چهار منطقه استفاده می شود. به علاوه، یک ساختاری تعریف می شود که تصاویر زیرروزنه ای که ازنظر فضایی باهم مجاور هستند را به عنوان مراجع پیش بینی با بالاترین شباهت به تصویر فعلی انتخاب می کند. در این روش، کارآمدی کدگذاری افزایش می یابد و بنابراین منجر به ایجاد شباهت بالاتری دربین سه واحد کدگذاری هم¬¬- مکان (CTU) می شود. از شباهت های بین سی تی یوهای هم- مکان برای پیش بینی عمق واحد استفاده می شود. به علاوه، کدگذاری مستقل هر زیرگروه، پردازش موازی را امکانپذیر می کند که درکنار پیش بینی عمق واحد کدگذاری پیشنهاد شده، زمان اجرای کدگذاری را به صورت میانگین تقریبا" تا 80 درصد کاهش می دهد. نتایج شبیه سازی نشان می دهد که عملکرد نرخ انحراف روش پیشنهادی درمقایسه با سایر جدیترین روشهای فشرده سازی لنزی، بهره فشرده سازی بالاتر و پیچیدگی محاسباتی پایین تری دارد.
عبارات شاخص – میدان نور | لنزی | فشرده سازی | ترتیب اسکن | ساختار GOP | پردازش موازی | درخت واحد کدگذاری
مقاله ترجمه شده
5 An improved distributed storage and query for remote sensing data
ذخیره سازی توزیع شده بهبود یافته و پرس و جو برای داده های حسی راه دور-2018
With the rapid development of information technology, the amount of remote sensing data is increasing at an unprecedented scale. In the presence of massive remote sensing data, the traditional processing methods have the problems of low efficiency and lack of scalability, so this paper uses open source big data technology to improve it. Firstly, the storage model of remote sensing image data is designed by using the distributed storage database HBase. Then, the grid index and the Hibert curve are combined to establish the index for the image data. Finally, the method of MapReduce parallel processing is used to write and query remote sensing images. The experimental results show that the method can effectively improve the data writing and query speed, and has good scalability.
Keywords: remote data; distribute storage; data query; HBase; mapreduce
مقاله انگلیسی
6 A Comparison of Big Remote Sensing Data Processing with Hadoop MapReduce and Spark
مقايسه پردازش داده های حسی راه دور با MapReduce و Spark Hadoop-2018
The continuous generation of huge amount of re mote sensing (RS) data is becoming a challenging task for researchers due to the 4 Vs characterizing this type of data (volume, variety, velocity and veracity). Many platforms have been proposed to deal with big data in RS field. This paper focus on the comparison of two well-known platforms of big RS data namely Hadoop and Spark. We start by describing the two platforms Hadoop and Spark. The first platform is designed for processing enormous unstructured data in a distributed comput ing environment. It is composed of two basic elements : 1) Hadoop Distributed file system for storage, and 2) Mapreduce and Yarn for parallel processing, scheduling the jobs and analyzing big RS data. The second platform, Spark, is composed by a set of libraries and uses the resilient distributed data set to overcome the computational complexity. The last part of this paper is devoted to a comparison between the two platforms.
Index Terms : Big Data, Architectures, Hadoop, Spark, Remote Sensing Image
مقاله انگلیسی
7 Scalable system scheduling for HPC and big data
برنامه ریزی مقیاس پذیر برای HPC و داده های بزرگ-2018
In the rapidly expanding field of parallel processing, job schedulers are the ‘‘operating systems’’ of modern big data architectures and supercomputing systems. Job schedulers allocate computing resources and control the execution of processes on those resources. Historically, job schedulers were the domain of supercomputers, and job schedulers were designed to run massive, long-running computations over days and weeks. More recently, big data workloads have created a need for a new class of computations consisting of many short computations taking seconds or minutes that process enormous quantities of data. For both supercomputers and big data systems, the efficiency of the job scheduler represents a fundamental limit on the efficiency of the system. Detailed measurement and modeling of the perfor mance of schedulers are critical for maximizing the performance of a large-scale computing system. This paper presents a detailed feature analysis of 15 supercomputing and big data schedulers. For big data workloads, the scheduler latency is the most important performance characteristic of the scheduler. A theoretical model of the latency of these schedulers is developed and used to design experiments targeted at measuring scheduler latency. Detailed benchmarking of four of the most popular schedulers (Slurm, Son of Grid Engine, Mesos, and Hadoop YARN) is conducted. The theoretical model is compared with data and demonstrates that scheduler performance can be characterized by two key parameters: the marginal latency of the scheduler ts and a nonlinear exponent αs. For all four schedulers, the utilization of the computing system decreases to <10% for computations lasting only a few seconds. Multi-level schedulers (such as LLMapReduce) that transparently aggregate short computations can improve utilization for these short computations to >90% for all four of the schedulers that were tested.
Keywords: Scheduler ، Resource manager ، Job scheduler ، High performance computing ، Data analytics
مقاله انگلیسی
8 Data Transfer Scheduling for Maximizing Throughput of Big-Data Computing in Cloud Systems
زمانبندی انتقال داده برای به حداکثر رساندن کارایی محاسبات داده های بزرگ درسیستم های ابری-2018
Many big-data computing applications have been deployed in cloud platforms. These applications normally demand concurrent data transfers among computing nodes for parallel processing. It is important to find the best transfer scheduling leading to the least data retrieval time—the maximum throughput in other words. However, the existing methods cannot achieve this, because they ignore link bandwidths and the diversity of data replicas and paths. In this paper, we aim to develop a max-throughput data transfer scheduling to minimize the data retrieval time of applications. Specifically, the problem is formulated into mixed integer programming, and an approximation algorithm is proposed, with its approximation ratio analyzed. The extensive simulations demonstrate that our algorithm can obtain near optimal solutions
Index Terms: Data transfer scheduling, big-data computing, throughput maximization, data center
مقاله انگلیسی
9 نرمال سازی داده های بزرگ برای پایگاه داده های پردازش موازی انبوه
سال انتشار: 2017 - تعداد صفحات فایل pdf انگلیسی: 8 - تعداد صفحات فایل doc فارسی: 35
در پایگاه داده هایی که به پردازش موازی داده های انبوه یا به اختصار MPP می پردازند، معمولاً پرس و جو با عملکرد بالا و پرس وجوی اَدهاک به عنوان هدف های دو به دو ناسازگار در نظر گرفته می شوند. همچنین در این نوع از پایگاه دادده ها، میان سهولت توسعه ی مدل داده و سهولت تجزیه و تحلیل نیز تضاد وجود دارد. رویکرد جدیدی که "دریاچه داده " نام دارد، اینگونه وعده می دهد که با افزودن داده های جدید به مدل، توسعه ی مدل داده ساده تر خواهد شد، در حالیکه این دریاچه بسیار مستعد است که در نهایت تبدیل به باتلاقی بدون ساختار از داده ها شود؛ با توجه به عدم رعایت موازین و استانداردها، دریاچه ی داده از کنترل خارج می شود، یافتن داده ها و همچنین استفاده از داده ها، دشوار خواهد شد و بدین ترتیب دیگر داده ها قابل استفاده نخواهند بود. در این مقاله، تکنیک جدیدی معرفی می شود که با استفاده از مدلسازی لنگر داده های بزرگ را بسیار نرمال می کند؛ با استفاده از این تکنیک برای ذخیره ی اطلاعات و استفاده از منابع، روش بسیار مؤثری ارائه می شود، در نتیجه برای اولین بار در پایگاه داده هایی که به پردازش موازی داده های انبوه می-پردازند، پرس وجوی اَدهاک با کارایی بالا ارائه می شود (در این متن، منظور از پرس و جو، کوئری می باشد). این تکنیک برای توسعه ی مدل داده و تبدیل آن به دریاچه ی داده، روش تقریباً مناسبی است، این در حالی است که مدل، به صورت داخلی در برابر تبدیل شدن به دریاچه داده محافظت می شود. در اینجا یک مطالعه ی موردی نیز انجام شده است، این مطالعه به این مسأله می پردازد که چگونه این روش به مدت بیش از سه سال از انبارداده ا ی موجود در آویتو استفاده کرده است (آویتو یک وب سایت روسی است)؛ همچنین نتایج آزمایشاتی که با استفاده از داده های واقعی در HP Vertica انجام شده اند، نیز ارائه می شود. این مقاله براساس نتایج بدست آمده از یک پایان نامه گردآوری شده و در 34 اُمین کنفرانس بین المللی مدلسازی مفهومی در سال 2015 ارائه شده است ]1[؛ این مقاله با استفاده از نتایج عددی که در طی چندین سال (1 تا 3 سال) از نرمالسازی داده های بزرگ موجود در نواحی کلیدی انبار داده، بدست آمده است، تکمیل می شود. همچنین در اینجا به توصیف محدودیت ها نیز پرداخته می شود؛ این محدودیت ها به علت استفاده از تنها یک خوشه از پایگاه داده ی MPP ایجاد می شوند.
کلمات کلیدی: داده های بزرگ | MPP | پایگاه داده | نرمال سازی | تجزیه و تحلیل | اَدهاک | پرس وجو | مدل سازی | عملکرد | دریاچه داده.
مقاله ترجمه شده
10 Application of distributed semi-quantum computing model in phase estimation
کاربرد مدل محاسبات نیمه کوانتومی توزیع شده در تخمین فاز-2017
We make use of a kind of distributed semi-quantum computing models to study phase estimation. The basic idea is to use distributed micro quantum computers to process re spectively a small quantity of quantum states and then communicate with a given classical computer via classical channel to transport the results. We study the phase estimation al gorithm basing on this idea and provide a distributed semi-quantum algorithm for phase estimation. Its time complexity in the first stage will not be worse than the existing quan tum algorithm of phase estimation, and particularly, has an exponential acceleration in the second stage of phase estimation.
Keywords: Quantum computing | Approximation algorithms | Distributed computing | Parallel processing | Randomized algorithms
مقاله انگلیسی
rss مقالات ترجمه شده rss مقالات انگلیسی rss کتاب های انگلیسی rss مقالات آموزشی
logo-samandehi
بازدید امروز: 1508 :::::::: بازدید دیروز: 3084 :::::::: بازدید کل: 4592 :::::::: افراد آنلاین: 8