با سلام خدمت کاربران در صورتی که با خطای سیستم پرداخت بانکی مواجه شدید از طریق کارت به کارت (6037997535328901 بانک ملی ناصر خنجری ) مقاله خود را دریافت کنید (تا مشکل رفع گردد).
ردیف | عنوان | نوع |
---|---|---|
1 |
EP-PQM: Efficient Parametric Probabilistic Quantum Memory With Fewer Qubits and Gates
EP-PQM: حافظه کوانتومی احتمالی پارامتریک کارآمد با کیوبیت ها و گیت های کمتر-2022 Machine learning (ML) classification tasks can be carried out on a quantum computer (QC)
using probabilistic quantum memory (PQM) and its extension, parametric PQM (P-PQM), by calculating
the Hamming distance between an input pattern and a database of r patterns containing z features with
a distinct attributes. For PQM and P-PQM to correctly compute the Hamming distance, the feature must
be encoded using one-hot encoding, which is memory intensive for multiattribute datasets with a > 2. We
can represent multiattribute data more compactly by replacing one-hot encoding with label encoding; both
encodings yield the same Hamming distance. Implementing this replacement on a classical computer is
trivial. However, replacing these encoding schemes on a QC is not straightforward because PQM and P-PQM
operate at the bit level, rather than at the feature level (a feature is represented by a binary string of 0’s and
1’s). We present an enhanced P-PQM, called efficient P-PQM (EP-PQM), that allows label encoding of data
stored in a PQM data structure and reduces the circuit depth of the data storage and retrieval procedures.
We show implementations for an ideal QC and a noisy intermediate-scale quantum (NISQ) device. Our
complexity analysis shows that the EP-PQM approach requires O(z log2(a)) qubits as opposed to O(za)
qubits for P-PQM. EP-PQM also requires fewer gates, reducing gate count from O(rza) to O(rz log2(a)).
For five datasets, we demonstrate that training an ML classification model using EP-PQM requires 48% to
77% fewer qubits than P-PQM for datasets with a > 2. EP-PQM reduces circuit depth in the range of 60% to
96%, depending on the dataset. The depth decreases further with a decomposed circuit, ranging between 94%
and 99%. EP-PQM requires less space; thus, it can train on and classify larger datasets than previous PQM
implementations on NISQ devices. Furthermore, reducing the number of gates speeds up the classification
and reduces the noise associated with deep quantum circuits. Thus, EP-PQM brings us closer to scalable ML
on an NISQ device.
INDEX TERMS: Efficient encoding | label encoding | quantum memory. |
مقاله انگلیسی |
2 |
Quantum-Inspired Machine Learning for 6G: Fundamentals, Security, Resource Allocations, Challenges, and Future Research Directions
یادگیری ماشینی الهام گرفته از کوانتومی برای 6G: مبانی، امنیت، تخصیص منابع، چالشها و دستورالعملهای تحقیقاتی آینده-2022 Quantum computing is envisaged as an evolving paradigm for solving computationally complex optimization problems with a large-number factorization and exhaustive search. Recently, there has been
a proliferating growth of the size of multi-dimensional datasets, the input-output space dimensionality, and
data structures. Hence, the conventional machine learning approaches in data training and processing have
exhibited their limited computing capabilities to support the sixth-generation (6G) networks with highly
dynamic applications and services. In this regard, the fast developing quantum computing with machine
learning for 6G networks is investigated. Quantum machine learning algorithm can significantly enhance the
processing efficiency and exponentially computational speed-up for effective quantum data representation
and superposition framework, highly capable of guaranteeing high data storage and secured communications. We present the state-of-the-art in quantum computing and provide a comprehensive overview
of its potential, via machine learning approaches. Furthermore, we introduce quantum-inspired machine
learning applications for 6G networks in terms of resource allocation and network security, considering their
enabling technologies and potential challenges. Finally, some dominating research issues and future research
directions for the quantum-inspired machine learning in 6G networks are elaborated.
INDEX TERMS: 6G networks | machine learning | quantum machine learning | quantum security. |
مقاله انگلیسی |
3 |
Quantum Speedup for Inferring the Value of Each Bit of a Solution State in Unsorted Databases Using a Bio-Molecular Algorithm on IBM Quantum’s Computers
سرعت کوانتومی برای استنباط ارزش هر بیت از یک حالت راه حل در پایگاه های داده مرتب نشده با استفاده از الگوریتم زیست مولکولی در رایانه های کوانتومی IBM-2022 In this paper, we propose a bio-molecular
algorithm with O(n2) biological operations, O(2n−1) DNA
strands, O(n) tubes and the longest DNA strand, O(n), for
inferring the value of a bit from the only output satisfying
any given condition in an unsorted database with 2n items
of n bits. We show that the value of each bit of the outcome
is determined by executing our bio-molecular algorithm n
times. Then, we show how to view a bio-molecular solution
space with 2n-1 DNA strands as an eigenvector and how to
find the corresponding unitary operator and eigenvalues for
inferring the value of a bit in the output. We also show that
using an extension of the quantum phase estimation and
quantum counting algorithms computes its unitary operator
and eigenvalues from bio-molecular solution space with 2n-1
DNA strands. Next, we demonstrate that the value of each bit
of the output solution can be determined by executing the
proposed extended quantum algorithms n times. To verify
our theorem, we find the maximum-sized clique to a graph
with two vertices and one edge and the solution b that
satisfies b2 ≡ 1 (mod 15) and 1 < b < (15/2) using IBM
Quantum’s backend.
Index Terms: Data structures and algorithms | molecular algorithms | quantum algorithms | NP-complete problems. |
مقاله انگلیسی |
4 |
Proposal of anonymization dictionary using disclosed statements by business operators
پیشنهاد فرهنگ لغت ناشناس با استفاده از اظهارات افشا شده توسط اپراتورهای تجاری-2022 Increasing the number of business operators using anonymously processed information is a
critical privacy topic in Japan. To promote the use of the information, an ‘‘anonymization
dictionary’’ is proposed and implemented. The dictionary is the system that shares usecases regarding the manner by which business operators produce and provide anonymously
processed information. To develop this system, two technical difficulties are resolved: the lack
of (i) a method to acquire the use-cases and (ii) a data structure to store the use-cases. In
terms of (i), disclosed statements that specify the production and provisioning processes for
anonymously processed information is focused. To recognize the statements described in the
business operators’ webpages as the use-cases, a web crawler that acquires the statements is
developed. The crawler acquires 331 use-cases (statements) in a short duration. In terms of (ii),
to define a concrete data structure to store anonymously processed information use-cases, the
structure of the use-cases acquired is analyzed. The use-cases are stored into the structure and
then in the DB of the dictionary application. This enables a search function to be provided for
identifying the necessary use-cases and organizing use-cases in a readable form to the business
operators.
keywords: اطلاعات پردازش شده به صورت ناشناس | ناشناس سازی | اظهارات افشا شده | خزنده | حفظ حریم خصوصی | Anonymously processed information | Anonymization | Disclosed statements | Crawler | Privacy preservation |
مقاله انگلیسی |
5 |
پیش بینی قیمت بیت کوین با استفاده از یادگیری ماشین: یک رویکر برای مهندسی ابعاد نمونه
سال انتشار: 2020 - تعداد صفحات فایل pdf انگلیسی: 13 - تعداد صفحات فایل doc فارسی: 32 پس از فراز و فرودهای قیمت های ارزهای رمزنگاری شده در سال های اخیر، بیت کوین به صورت فزاینده ای به عنوان یک دارایی برای سرمایه گذاری در نظر گرفته شده است. به خاطر ماهیت بسیار بی ثبات قیمت بیت کوین، لازم است تا پیش بینی های مناسبی صورت گیرد تا، بر اساس آن، بتوان در مورد سرمایه گذاری تصمیم گیری نمود. با وجودی که تحقیقات جاری برای پیش بینی دقیق تر قیمت بیت کوین از یادگیری ماشین استفاده کرده اند، تعداد اندکی از آنها به امکان استفاده از تکنیک های مختلف مدل سازی برای نمونه هایی با ساختار داده ای و ویژگی های بعدی مختلف توجه کرده اند. به منظور پیش بینی بهای بیت کوین در فرکانس های مختلف با استفاده از تکنیک های یادگیری ماشین، ابتدا قیمت بیت کوین را بر اساس قیمت روزانه و قیمت فرکانس بالا طبقه بندی می کنیم. مجموعه ای از ویژگی های با ابعاد بالا از جمله دارایی و شبکه، معاملات و بازار، توجه و قیمت لحظه ای طلا برای پیش بینی قیمت روزانه بیت کوین استفاده می شود، در حالی که ویژگی های اصلی تجارت که از تبادل ارز رمزنگاری شده حاصل شده اند، برای پیش بینی قیمت در فواصل 5 دقیقه ای استفاده می شوند. روشهای آماری شامل رگرسیون لجستیک و آنالیز افتراقی خطی برای پیش بینی قیمت روزانه بیت کوین با ویژگی های ابعاد بالا، به دقت 66٪ رسیده و از الگوریتم های یادگیری پیچیده تر ماشین پیشی می گیرند. در مقایسه با نتایج مبنا برای پیش بینی قیمت روزانه، با بالاترین دقت در روش های آماری و الگوریتم های یادگیری ماشینی، به ترتیب 66٪ و 3/65٪، به عملکرد بهتری دست پیدا می کنیم. مدلهای یادگیری ماشینی، شامل جنگل تصادفی ،XGBoost، آنالیز افتراقی درجه دو، ماشین بردار پشتیبان و حافظه کوتاه مدت بلند برای پیش بینی قیمت 5 دقیقه ای بیت کوین که دقت آنها به 67.2% رسیده است، از روشهای آماری بهتر هستند. بررسی ما در مورد پیش بینی قیمت بیت کوین را می توان مطالعه ای مقدماتی در مورد اهمیت ابعاد نمونه در تکنیک های یادگیری ماشین در نظر گرفت.
کلمات کلیدی: مهندسی ابعاد نمونه | اصل Occam’s Razor | پیش بینی قیمت بیت کوین | الگوریتم های یادگیری ماشین |
مقاله ترجمه شده |
6 |
پیش بینی قیمت بیت کوین با استفاده از یادگیری ماشین: یک رویکر برای مهندسی ابعاد نمونه
سال انتشار: 2020 - تعداد صفحات فایل pdf انگلیسی: 13 - تعداد صفحات فایل doc فارسی: 32 پس از فراز و فرودهای قیمت های ارزهای رمزنگاری شده در سال های اخیر، بیت کوین به صورت فزاینده ای به عنوان یک دارایی برای سرمایه گذاری در نظر گرفته شده است. به خاطر ماهیت بسیار بی ثبات قیمت بیت کوین، لازم است تا پیش بینی های مناسبی صورت گیرد تا، بر اساس آن، بتوان در مورد سرمایه گذاری تصمیم گیری نمود. با وجودی که تحقیقات جاری برای پیش بینی دقیق تر قیمت بیت کوین از یادگیری ماشین استفاده کرده اند، تعداد اندکی از آنها به امکان استفاده از تکنیک های مختلف مدل سازی برای نمونه هایی با ساختار داده ای و ویژگی های بعدی مختلف توجه کرده اند. به منظور پیش بینی بهای بیت کوین در فرکانس های مختلف با استفاده از تکنیک های یادگیری ماشین، ابتدا قیمت بیت کوین را بر اساس قیمت روزانه و قیمت فرکانس بالا طبقه بندی می کنیم. مجموعه ای از ویژگی های با ابعاد بالا از جمله دارایی و شبکه، معاملات و بازار، توجه و قیمت لحظه ای طلا برای پیش بینی قیمت روزانه بیت کوین استفاده می شود، در حالی که ویژگی های اصلی تجارت که از تبادل ارز رمزنگاری شده حاصل شده اند، برای پیش بینی قیمت در فواصل 5 دقیقه ای استفاده می شوند. روشهای آماری شامل رگرسیون لجستیک و آنالیز افتراقی خطی برای پیش بینی قیمت روزانه بیت کوین با ویژگی های ابعاد بالا، به دقت 66٪ رسیده و از الگوریتم های یادگیری پیچیده تر ماشین پیشی می گیرند. در مقایسه با نتایج مبنا برای پیش بینی قیمت روزانه، با بالاترین دقت در روش های آماری و الگوریتم های یادگیری ماشینی، به ترتیب 66٪ و 3/65٪، به عملکرد بهتری دست پیدا می کنیم. مدلهای یادگیری ماشینی، شامل جنگل تصادفی ،XGBoost، آنالیز افتراقی درجه دو، ماشین بردار پشتیبان و حافظه کوتاه مدت بلند برای پیش بینی قیمت 5 دقیقه ای بیت کوین که دقت آنها به 67.2% رسیده است، از روشهای آماری بهتر هستند. بررسی ما در مورد پیش بینی قیمت بیت کوین را می توان مطالعه ای مقدماتی در مورد اهمیت ابعاد نمونه در تکنیک های یادگیری ماشین در نظر گرفت.
کلمات کلیدی: مهندسی ابعاد نمونه | اصل Occam’s Razor | پیش بینی قیمت بیت کوین | الگوریتم های یادگیری ماشین |
مقاله ترجمه شده |
7 |
Toward a novel framework for bloodstains dating by Raman spectroscopy: How to avoid sample photodamage and subsampling errors
در راستای یک چارچوب جدید برای قدمت رگهای خونی توسط طیف سنجی رامان: نحوه جلوگیری از خطاهای عکسبرداری و نمونه برداری از نمونه-2020 Answers to questions about the time of bloodstains formation are often essential to unravel the sequence of
events behind criminal acts. Unfortunately, the relevance of preserved evidence to the committed offence usually
cannot be verified, because forensic experts are still incapable of providing an accurate estimate of the bloodstains’
age. An antidote to this impediment might be substituting the classical dating approach – founded on the
application of calibration models – by the comparison problem addressed using likelihood ratio tests. The key
aspect of this concept involves comparing the evidential data with results characterizing reference bloodstains,
formed during the process of supervised ageing so as to reproduce the evidence. Since this comparison requires
data that conveys information inherent to changes accompanying the process of blood decomposition, this study
provided a Raman-based procedure, designated for probing into the chemistry of ageing bloodstains. To circumvent
limitations experienced with single-point measurements – the risk of laser-induced degradation of
hemoglobin and subsampling errors – the rotating mode of spectral acquisition was introduced. In order to verify
the performance of this novel sampling method, obtained spectra were confronted with those acquired during
conventional static measurements. The visual comparison was followed by analysis of data structure using
regularized MANOVA, which boosted the variance between differently-aged samples while minimizing the
variance observed for bloodstains deposited at the same time. Studies of relation between these variances demonstrated
the superiority of novel procedure, as it provided Raman signatures that enabled a better distinction
between differently-aged bloodstains. Keywords: Bloodstains | Forensic dating | Raman spectroscopy | Rotating stage | Regularized MANOVA |
مقاله انگلیسی |
8 |
Probabilistic data structures for big data analytics: A comprehensive review
ساختار داده های احتمالی برای تجزیه و تحلیل داده های بزرگ: یک مرور جامع-2020 An exponential increase in the data generation resources is widely observed in last decade, because
of evolution in technologies such as-cloud computing, IoT, social networking, etc. This enormous
and unlimited growth of data has led to a paradigm shift in storage and retrieval patterns from
traditional data structures to Probabilistic Data Structures (PDS). PDS are a group of data structures
that are extremely useful for Big data and streaming applications in order to avoid high-latency
analytical processes. These data structures use hash functions to compactly represent a set of items
in stream-based computing while providing approximations with error bounds so that well-formed
approximations get built into data collections directly. Compared to traditional data structures, PDS use
much less memory and constant time in processing complex queries. This paper provides a detailed
discussion of various issues which are normally encountered in massive data sets such as-storage,
retrieval, query,etc. Further, role of PDS in solving these issues is also discussed where these data
structures are used as temporary accumulators in query processing. Several variants of existing PDS
along with their application areas have also been explored which give a holistic view of domains
where these data structures can be applied for efficient storage and retrieval of massive data sets.
Mathematical proofs of various parameters considered in the PDS have also been discussed in the
paper. Moreover, the relative comparison of various PDS with respect to various parameters is also
explored. Keywords: Big data | Internet of things (IoT) | Probabilistic data structures | Bloom filter | Quotient filter | Count min sketch | HyperLogLog counter | Min-hash Locality | sensitive hashing |
مقاله انگلیسی |
9 |
Distributed mining of high utility time interval sequential patterns using mapreduce approach
کاوش توزیع شده الگوهای پی در پی فاصله زمانی ابزار مطلوب با استفاده از روش Mapreduce-2020 High Utility Sequential Pattern mining (HUSP) algorithms aim to find all the high utility sequences from a sequence database. Due to the large explosion of data, recently few distributed algorithms have been designed for mining HUSPs based on the MapReduce framework. However, the existing HUSP algorithms such as USpan, HUS-Span and BigHUSP are able to predict only the order of items, they do not pre- dict the time between the items, that is, they do not include the time intervals between the successive items. But in a real-world scenario, time interval patterns provide more valuable information than con- ventional high utility sequential patterns. Therefore, we propose a distributed high utility time interval sequential pattern mining (DHUTISP) algorithm using the MapReduce approach that is suitable for big data. DHUTISP creates a novel time interval utility linked list data structure (TIUL) to efficiently calculate the utility of the resulting patterns. Moreover, two utility upper bounds, namely, remaining utility upper bound (RUUB) and co-occurrence utility upper bound (CUUB) are proposed to prune the unpromising candidates. We conducted various experiments to prove the efficiency of the proposed algorithm over both the distributed and non-distributed approaches. The experimental results show the efficiency of DHUTISP over state-of-the-art algorithms, namely, BigHUSP, AHUS-P, PUSOM and UTMining_A. Keywords: Big data | High utility itemset mining | High utility sequential pattern mining | Time interval sequential pattern mining | Mapreduce framework |
مقاله انگلیسی |
10 |
Graph Deconvolutional Networks
شبکه Deconvolutional گراف-2020 Graphs and networks are very common data structure for modelling complex
systems that are composed of a number of nodes and topologies, such as social
networks, citation networks, biological protein-protein interactions networks,
etc. In recent years, machine learning has become an efficient technique to
obtain representation of graph for downstream graph analysis tasks, including
node classification, link prediction, and community detection. Different with
traditional graph analytical models, the representation learning on graph tries
to learn low dimensional embeddings by means of machine learning models that
could be trained in supervised, unsupervised or semi-supervised manners. Compared
with traditional approaches that directly use input node attributes, these
embeddings are much more informative and helpful for graph analysis. There
are a number of developed models in this respect, that are different in the ways
of measuring similarity of vertexes in both original space and feature space.
In order to learn more efficient node representation with better generalization
property, we propose a task-independent graph representation model, called as
graph deconvolutional network (GDN), and corresponding unsupervised learning
algorithm in this paper. Different with graph convolution network (GCN)
from the scratch, which produces embeddings by convolving input attribute vec-
tors with learned filters, the embeddings of the proposed GDN model are desired
to be convolved with filters so that reconstruct the input node attribute vectors
as far as possible. The embeddings and filters are alternatively optimized in
the learning procedure. The correctness of the proposed GDN model is verified
by multiple tasks over several datasets. The experimental results show that the
GDN model outperforms existing alternatives with a big margin Keywords: graph representation | representation learning | unsupervised learning |node embedding | machine learning |
مقاله انگلیسی |