دانلود و نمایش مقالات مرتبط با data structure::صفحه 1
دانلود بهترین مقالات isi همراه با ترجمه فارسی 2

با سلام خدمت کاربران در صورتی که با خطای سیستم پرداخت بانکی مواجه شدید از طریق کارت به کارت (6037997535328901 بانک ملی ناصر خنجری ) مقاله خود را دریافت کنید (تا مشکل رفع گردد). 

نتیجه جستجو - data structure

تعداد مقالات یافته شده: 52
ردیف عنوان نوع
1 EP-PQM: Efficient Parametric Probabilistic Quantum Memory With Fewer Qubits and Gates
EP-PQM: حافظه کوانتومی احتمالی پارامتریک کارآمد با کیوبیت ها و گیت های کمتر-2022
Machine learning (ML) classification tasks can be carried out on a quantum computer (QC) using probabilistic quantum memory (PQM) and its extension, parametric PQM (P-PQM), by calculating the Hamming distance between an input pattern and a database of r patterns containing z features with a distinct attributes. For PQM and P-PQM to correctly compute the Hamming distance, the feature must be encoded using one-hot encoding, which is memory intensive for multiattribute datasets with a > 2. We can represent multiattribute data more compactly by replacing one-hot encoding with label encoding; both encodings yield the same Hamming distance. Implementing this replacement on a classical computer is trivial. However, replacing these encoding schemes on a QC is not straightforward because PQM and P-PQM operate at the bit level, rather than at the feature level (a feature is represented by a binary string of 0’s and 1’s). We present an enhanced P-PQM, called efficient P-PQM (EP-PQM), that allows label encoding of data stored in a PQM data structure and reduces the circuit depth of the data storage and retrieval procedures. We show implementations for an ideal QC and a noisy intermediate-scale quantum (NISQ) device. Our complexity analysis shows that the EP-PQM approach requires O(z log2(a)) qubits as opposed to O(za) qubits for P-PQM. EP-PQM also requires fewer gates, reducing gate count from O(rza) to O(rz log2(a)). For five datasets, we demonstrate that training an ML classification model using EP-PQM requires 48% to 77% fewer qubits than P-PQM for datasets with a > 2. EP-PQM reduces circuit depth in the range of 60% to 96%, depending on the dataset. The depth decreases further with a decomposed circuit, ranging between 94% and 99%. EP-PQM requires less space; thus, it can train on and classify larger datasets than previous PQM implementations on NISQ devices. Furthermore, reducing the number of gates speeds up the classification and reduces the noise associated with deep quantum circuits. Thus, EP-PQM brings us closer to scalable ML on an NISQ device.
INDEX TERMS: Efficient encoding | label encoding | quantum memory.
مقاله انگلیسی
2 Quantum-Inspired Machine Learning for 6G: Fundamentals, Security, Resource Allocations, Challenges, and Future Research Directions
یادگیری ماشینی الهام گرفته از کوانتومی برای 6G: مبانی، امنیت، تخصیص منابع، چالش‌ها و دستورالعمل‌های تحقیقاتی آینده-2022
Quantum computing is envisaged as an evolving paradigm for solving computationally complex optimization problems with a large-number factorization and exhaustive search. Recently, there has been a proliferating growth of the size of multi-dimensional datasets, the input-output space dimensionality, and data structures. Hence, the conventional machine learning approaches in data training and processing have exhibited their limited computing capabilities to support the sixth-generation (6G) networks with highly dynamic applications and services. In this regard, the fast developing quantum computing with machine learning for 6G networks is investigated. Quantum machine learning algorithm can significantly enhance the processing efficiency and exponentially computational speed-up for effective quantum data representation and superposition framework, highly capable of guaranteeing high data storage and secured communications. We present the state-of-the-art in quantum computing and provide a comprehensive overview of its potential, via machine learning approaches. Furthermore, we introduce quantum-inspired machine learning applications for 6G networks in terms of resource allocation and network security, considering their enabling technologies and potential challenges. Finally, some dominating research issues and future research directions for the quantum-inspired machine learning in 6G networks are elaborated.
INDEX TERMS: 6G networks | machine learning | quantum machine learning | quantum security.
مقاله انگلیسی
3 Quantum Speedup for Inferring the Value of Each Bit of a Solution State in Unsorted Databases Using a Bio-Molecular Algorithm on IBM Quantum’s Computers
سرعت کوانتومی برای استنباط ارزش هر بیت از یک حالت راه حل در پایگاه های داده مرتب نشده با استفاده از الگوریتم زیست مولکولی در رایانه های کوانتومی IBM-2022
In this paper, we propose a bio-molecular algorithm with O(n2) biological operations, O(2n−1) DNA strands, O(n) tubes and the longest DNA strand, O(n), for inferring the value of a bit from the only output satisfying any given condition in an unsorted database with 2n items of n bits. We show that the value of each bit of the outcome is determined by executing our bio-molecular algorithm n times. Then, we show how to view a bio-molecular solution space with 2n-1 DNA strands as an eigenvector and how to find the corresponding unitary operator and eigenvalues for inferring the value of a bit in the output. We also show that using an extension of the quantum phase estimation and quantum counting algorithms computes its unitary operator and eigenvalues from bio-molecular solution space with 2n-1 DNA strands. Next, we demonstrate that the value of each bit of the output solution can be determined by executing the proposed extended quantum algorithms n times. To verify our theorem, we find the maximum-sized clique to a graph with two vertices and one edge and the solution b that satisfies b2 ≡ 1 (mod 15) and 1 < b < (15/2) using IBM Quantum’s backend.
Index Terms: Data structures and algorithms | molecular algorithms | quantum algorithms | NP-complete problems.
مقاله انگلیسی
4 Proposal of anonymization dictionary using disclosed statements by business operators
پیشنهاد فرهنگ لغت ناشناس با استفاده از اظهارات افشا شده توسط اپراتورهای تجاری-2022
Increasing the number of business operators using anonymously processed information is a critical privacy topic in Japan. To promote the use of the information, an ‘‘anonymization dictionary’’ is proposed and implemented. The dictionary is the system that shares usecases regarding the manner by which business operators produce and provide anonymously processed information. To develop this system, two technical difficulties are resolved: the lack of (i) a method to acquire the use-cases and (ii) a data structure to store the use-cases. In terms of (i), disclosed statements that specify the production and provisioning processes for anonymously processed information is focused. To recognize the statements described in the business operators’ webpages as the use-cases, a web crawler that acquires the statements is developed. The crawler acquires 331 use-cases (statements) in a short duration. In terms of (ii), to define a concrete data structure to store anonymously processed information use-cases, the structure of the use-cases acquired is analyzed. The use-cases are stored into the structure and then in the DB of the dictionary application. This enables a search function to be provided for identifying the necessary use-cases and organizing use-cases in a readable form to the business operators.
keywords: اطلاعات پردازش شده به صورت ناشناس | ناشناس سازی | اظهارات افشا شده | خزنده | حفظ حریم خصوصی | Anonymously processed information | Anonymization | Disclosed statements | Crawler | Privacy preservation
مقاله انگلیسی
5 پیش بینی قیمت بیت کوین با استفاده از یادگیری ماشین: یک رویکر برای مهندسی ابعاد نمونه
سال انتشار: 2020 - تعداد صفحات فایل pdf انگلیسی: 13 - تعداد صفحات فایل doc فارسی: 32
پس از فراز و فرودهای قیمت های ارزهای رمزنگاری شده در سال های اخیر، بیت کوین به صورت فزاینده ای به عنوان یک دارایی برای سرمایه گذاری در نظر گرفته شده است. به خاطر ماهیت بسیار بی ثبات قیمت بیت کوین، لازم است تا پیش بینی های مناسبی صورت گیرد تا، بر اساس آن، بتوان در مورد سرمایه گذاری تصمیم گیری نمود. با وجودی که تحقیقات جاری برای پیش بینی دقیق تر قیمت بیت کوین از یادگیری ماشین استفاده کرده اند، تعداد اندکی از آنها به امکان استفاده از تکنیک های مختلف مدل سازی برای نمونه هایی با ساختار داده ای و ویژگی های بعدی مختلف توجه کرده اند. به منظور پیش بینی بهای بیت کوین در فرکانس های مختلف با استفاده از تکنیک های یادگیری ماشین، ابتدا قیمت بیت کوین را بر اساس قیمت روزانه و قیمت فرکانس بالا طبقه بندی می کنیم. مجموعه ای از ویژگی های با ابعاد بالا از جمله دارایی و شبکه، معاملات و بازار، توجه و قیمت لحظه ای طلا برای پیش بینی قیمت روزانه بیت کوین استفاده می شود، در حالی که ویژگی های اصلی تجارت که از تبادل ارز رمزنگاری شده حاصل شده اند، برای پیش بینی قیمت در فواصل 5 دقیقه ای استفاده می شوند. روشهای آماری شامل رگرسیون لجستیک و آنالیز افتراقی خطی برای پیش بینی قیمت روزانه بیت کوین با ویژگی های ابعاد بالا، به دقت 66٪ رسیده و از الگوریتم های یادگیری پیچیده تر ماشین پیشی می گیرند. در مقایسه با نتایج مبنا برای پیش بینی قیمت روزانه، با بالاترین دقت در روش های آماری و الگوریتم های یادگیری ماشینی، به ترتیب 66٪ و 3/65٪، به عملکرد بهتری دست پیدا می کنیم. مدلهای یادگیری ماشینی، شامل جنگل تصادفی ،XGBoost، آنالیز افتراقی درجه دو، ماشین بردار پشتیبان و حافظه کوتاه مدت بلند برای پیش بینی قیمت 5 دقیقه ای بیت کوین که دقت آنها به 67.2% رسیده است، از روشهای آماری بهتر هستند. بررسی ما در مورد پیش بینی قیمت بیت کوین را می توان مطالعه ای مقدماتی در مورد اهمیت ابعاد نمونه در تکنیک های یادگیری ماشین در نظر گرفت.
کلمات کلیدی: مهندسی ابعاد نمونه | اصل Occam’s Razor | پیش بینی قیمت بیت کوین | الگوریتم های یادگیری ماشین
مقاله ترجمه شده
6 پیش بینی قیمت بیت کوین با استفاده از یادگیری ماشین: یک رویکر برای مهندسی ابعاد نمونه
سال انتشار: 2020 - تعداد صفحات فایل pdf انگلیسی: 13 - تعداد صفحات فایل doc فارسی: 32
پس از فراز و فرودهای قیمت های ارزهای رمزنگاری شده در سال های اخیر، بیت کوین به صورت فزاینده ای به عنوان یک دارایی برای سرمایه گذاری در نظر گرفته شده است. به خاطر ماهیت بسیار بی ثبات قیمت بیت کوین، لازم است تا پیش بینی های مناسبی صورت گیرد تا، بر اساس آن، بتوان در مورد سرمایه گذاری تصمیم گیری نمود. با وجودی که تحقیقات جاری برای پیش بینی دقیق تر قیمت بیت کوین از یادگیری ماشین استفاده کرده اند، تعداد اندکی از آنها به امکان استفاده از تکنیک های مختلف مدل سازی برای نمونه هایی با ساختار داده ای و ویژگی های بعدی مختلف توجه کرده اند. به منظور پیش بینی بهای بیت کوین در فرکانس های مختلف با استفاده از تکنیک های یادگیری ماشین، ابتدا قیمت بیت کوین را بر اساس قیمت روزانه و قیمت فرکانس بالا طبقه بندی می کنیم. مجموعه ای از ویژگی های با ابعاد بالا از جمله دارایی و شبکه، معاملات و بازار، توجه و قیمت لحظه ای طلا برای پیش بینی قیمت روزانه بیت کوین استفاده می شود، در حالی که ویژگی های اصلی تجارت که از تبادل ارز رمزنگاری شده حاصل شده اند، برای پیش بینی قیمت در فواصل 5 دقیقه ای استفاده می شوند. روشهای آماری شامل رگرسیون لجستیک و آنالیز افتراقی خطی برای پیش بینی قیمت روزانه بیت کوین با ویژگی های ابعاد بالا، به دقت 66٪ رسیده و از الگوریتم های یادگیری پیچیده تر ماشین پیشی می گیرند. در مقایسه با نتایج مبنا برای پیش بینی قیمت روزانه، با بالاترین دقت در روش های آماری و الگوریتم های یادگیری ماشینی، به ترتیب 66٪ و 3/65٪، به عملکرد بهتری دست پیدا می کنیم. مدلهای یادگیری ماشینی، شامل جنگل تصادفی ،XGBoost، آنالیز افتراقی درجه دو، ماشین بردار پشتیبان و حافظه کوتاه مدت بلند برای پیش بینی قیمت 5 دقیقه ای بیت کوین که دقت آنها به 67.2% رسیده است، از روشهای آماری بهتر هستند. بررسی ما در مورد پیش بینی قیمت بیت کوین را می توان مطالعه ای مقدماتی در مورد اهمیت ابعاد نمونه در تکنیک های یادگیری ماشین در نظر گرفت.
کلمات کلیدی: مهندسی ابعاد نمونه | اصل Occam’s Razor | پیش بینی قیمت بیت کوین | الگوریتم های یادگیری ماشین
مقاله ترجمه شده
7 Toward a novel framework for bloodstains dating by Raman spectroscopy: How to avoid sample photodamage and subsampling errors
در راستای یک چارچوب جدید برای قدمت رگهای خونی توسط طیف سنجی رامان: نحوه جلوگیری از خطاهای عکسبرداری و نمونه برداری از نمونه-2020
Answers to questions about the time of bloodstains formation are often essential to unravel the sequence of events behind criminal acts. Unfortunately, the relevance of preserved evidence to the committed offence usually cannot be verified, because forensic experts are still incapable of providing an accurate estimate of the bloodstains’ age. An antidote to this impediment might be substituting the classical dating approach – founded on the application of calibration models – by the comparison problem addressed using likelihood ratio tests. The key aspect of this concept involves comparing the evidential data with results characterizing reference bloodstains, formed during the process of supervised ageing so as to reproduce the evidence. Since this comparison requires data that conveys information inherent to changes accompanying the process of blood decomposition, this study provided a Raman-based procedure, designated for probing into the chemistry of ageing bloodstains. To circumvent limitations experienced with single-point measurements – the risk of laser-induced degradation of hemoglobin and subsampling errors – the rotating mode of spectral acquisition was introduced. In order to verify the performance of this novel sampling method, obtained spectra were confronted with those acquired during conventional static measurements. The visual comparison was followed by analysis of data structure using regularized MANOVA, which boosted the variance between differently-aged samples while minimizing the variance observed for bloodstains deposited at the same time. Studies of relation between these variances demonstrated the superiority of novel procedure, as it provided Raman signatures that enabled a better distinction between differently-aged bloodstains.
Keywords: Bloodstains | Forensic dating | Raman spectroscopy | Rotating stage | Regularized MANOVA
مقاله انگلیسی
8 Probabilistic data structures for big data analytics: A comprehensive review
ساختار داده های احتمالی برای تجزیه و تحلیل داده های بزرگ: یک مرور جامع-2020
An exponential increase in the data generation resources is widely observed in last decade, because of evolution in technologies such as-cloud computing, IoT, social networking, etc. This enormous and unlimited growth of data has led to a paradigm shift in storage and retrieval patterns from traditional data structures to Probabilistic Data Structures (PDS). PDS are a group of data structures that are extremely useful for Big data and streaming applications in order to avoid high-latency analytical processes. These data structures use hash functions to compactly represent a set of items in stream-based computing while providing approximations with error bounds so that well-formed approximations get built into data collections directly. Compared to traditional data structures, PDS use much less memory and constant time in processing complex queries. This paper provides a detailed discussion of various issues which are normally encountered in massive data sets such as-storage, retrieval, query,etc. Further, role of PDS in solving these issues is also discussed where these data structures are used as temporary accumulators in query processing. Several variants of existing PDS along with their application areas have also been explored which give a holistic view of domains where these data structures can be applied for efficient storage and retrieval of massive data sets. Mathematical proofs of various parameters considered in the PDS have also been discussed in the paper. Moreover, the relative comparison of various PDS with respect to various parameters is also explored.
Keywords: Big data | Internet of things (IoT) | Probabilistic data structures | Bloom filter | Quotient filter | Count min sketch | HyperLogLog counter | Min-hash Locality | sensitive hashing
مقاله انگلیسی
9 Distributed mining of high utility time interval sequential patterns using mapreduce approach
کاوش توزیع شده الگوهای پی در پی فاصله زمانی ابزار مطلوب با استفاده از روش Mapreduce-2020
High Utility Sequential Pattern mining (HUSP) algorithms aim to find all the high utility sequences from a sequence database. Due to the large explosion of data, recently few distributed algorithms have been designed for mining HUSPs based on the MapReduce framework. However, the existing HUSP algorithms such as USpan, HUS-Span and BigHUSP are able to predict only the order of items, they do not pre- dict the time between the items, that is, they do not include the time intervals between the successive items. But in a real-world scenario, time interval patterns provide more valuable information than con- ventional high utility sequential patterns. Therefore, we propose a distributed high utility time interval sequential pattern mining (DHUTISP) algorithm using the MapReduce approach that is suitable for big data. DHUTISP creates a novel time interval utility linked list data structure (TIUL) to efficiently calculate the utility of the resulting patterns. Moreover, two utility upper bounds, namely, remaining utility upper bound (RUUB) and co-occurrence utility upper bound (CUUB) are proposed to prune the unpromising candidates. We conducted various experiments to prove the efficiency of the proposed algorithm over both the distributed and non-distributed approaches. The experimental results show the efficiency of DHUTISP over state-of-the-art algorithms, namely, BigHUSP, AHUS-P, PUSOM and UTMining_A.
Keywords: Big data | High utility itemset mining | High utility sequential pattern mining | Time interval sequential pattern mining | Mapreduce framework
مقاله انگلیسی
10 Graph Deconvolutional Networks
شبکه Deconvolutional گراف-2020
Graphs and networks are very common data structure for modelling complex systems that are composed of a number of nodes and topologies, such as social networks, citation networks, biological protein-protein interactions networks, etc. In recent years, machine learning has become an efficient technique to obtain representation of graph for downstream graph analysis tasks, including node classification, link prediction, and community detection. Different with traditional graph analytical models, the representation learning on graph tries to learn low dimensional embeddings by means of machine learning models that could be trained in supervised, unsupervised or semi-supervised manners. Compared with traditional approaches that directly use input node attributes, these embeddings are much more informative and helpful for graph analysis. There are a number of developed models in this respect, that are different in the ways of measuring similarity of vertexes in both original space and feature space. In order to learn more efficient node representation with better generalization property, we propose a task-independent graph representation model, called as graph deconvolutional network (GDN), and corresponding unsupervised learning algorithm in this paper. Different with graph convolution network (GCN) from the scratch, which produces embeddings by convolving input attribute vec- tors with learned filters, the embeddings of the proposed GDN model are desired to be convolved with filters so that reconstruct the input node attribute vectors as far as possible. The embeddings and filters are alternatively optimized in the learning procedure. The correctness of the proposed GDN model is verified by multiple tasks over several datasets. The experimental results show that the GDN model outperforms existing alternatives with a big margin
Keywords: graph representation | representation learning | unsupervised learning |node embedding | machine learning
مقاله انگلیسی
rss مقالات ترجمه شده rss مقالات انگلیسی rss کتاب های انگلیسی rss مقالات آموزشی
logo-samandehi
بازدید امروز: 6454 :::::::: بازدید دیروز: 0 :::::::: بازدید کل: 6454 :::::::: افراد آنلاین: 73