ردیف | عنوان | نوع |
---|---|---|
21 |
Predicting Inpatient Payments Prior to Lower Extremity Arthroplasty Using Deep Learning: Which Model Architecture Is Best?
پیش بینی پرداخت های بستری قبل از آرتروپلاستی با اندام تحتانی با استفاده از آموزش عمیق: کدام مدل معماری بهترین است؟-2019 Background: Recent advances in machine learning have given rise to deep learning, which uses hierarchical
layers to build models, offering the ability to advance value-based healthcare by better predicting patient
outcomes and costs of a given treatment. The purpose of this study is to compare the performance of 2
common deep learning models, traditional multilayer perceptron (MLP), and the newer dense neural
network (DenseNet), in predicting outcomes for primary total hip arthroplasty (THA) and total knee
arthroplasty (TKA) as a foundation for future musculoskeletal studies seeking to utilize machine learning.
Methods: Using 295,605 patients undergoing primary THA and TKA from a New York State inpatient
administrative database from 2009 to 2016, 2 neural network designs (MLP vs DenseNet) with different
model regularization techniques (dropout, batch normalization, and DeCovLoss) were applied to
compare model performance on predicting inpatient procedural cost using the area under the receiver
operating characteristic curve (AUC). Models were implemented to identify high-cost surgical cases.
Results: DenseNet performed similarly to or better than MLP across the different regularization techniques
in predicting procedural costs of THA and TKA. Applying regularization to DenseNet resulted in a
significantly higher AUC as compared to DenseNet alone (0.813 vs 0.792, P ¼ .011). When regularization
methods were applied to MLP, the AUC was significantly lower than without regularization (0.621 vs
0.791, P ¼ 1.1 1015). When the optimal MLP and DenseNet models were compared in a head-to-head
fashion, they performed similarly at cost prediction (P > .999).
Conclusion: This study establishes that in predicting costs of lower extremity arthroplasty, DenseNet
models improve in performance with regularization, whereas simple neural network models perform
significantly worse without regularization. In light of the resource-intensive nature of creating and
testing deep learning models for orthopedic surgery, particularly for value-centric procedures such as
arthroplasty, this study establishes a set of key technical features that resulted in better prediction of
inpatient surgical costs. We demonstrated that regularization is critically important for neural networks
in arthroplasty cost prediction and that future studies should utilize these deep learning techniques to
predict arthroplasty costs.
Level of Evidence: III. Keywords: machine learning | deep learning | neural networks | big data | total knee arthroplasty | total hip arthroplasty |
مقاله انگلیسی |
22 |
DISL: Deep Isomorphic Substructure Learning for network representations
DISL: یادگیری زیرساختار ایزومورفیک عمیق برای بازنمایی شبکه ها-2019 The analysis of complex networks based on deep learning has drawn much attention recently.
Generally, due to the scale and complexity of modern networks, traditional methods are gradually
losing the analytic efficiency and effectiveness. Therefore, it is imperative to design a network analysis
model which caters to the massive amount of data and learns more comprehensive information
from networks. In this paper, we propose a novel model, namely Deep Isomorphic Substructure
Learning (DISL) model, which aims to learn network representations from patterns with isomorphic
substructures. Specifically, in DISL, deep learning techniques are used to learn a better network
representation for each vertex (node). We provide the method that makes the isomorphic units
self-embed into vertex-based subgraphs whose explicit topologies are extracted from raw graphstructured
data, and design a Probability-guided Random Walk (PRW) procedure to explore the set
of substructures. Sequential samples yielded by PRW provide the information of relational similarity,
which integrates the information of correlation and co-occurrence of vertices and the information of
substructural isomorphism of subgraphs. We maximize the likelihood of the preserved relationships
for learning the implicit similarity knowledge. The architecture of the Convolutional Neural Networks
(CNNs) is redesigned for simultaneously processing the explicit and implicit features to learn a more
comprehensive representation for networks. The DISL model is applied to several vertex classification
tasks for social networks. Our results show that DISL outperforms the challenging state-of-the-art
Network Representation Learning (NRL) baselines by a significant margin on accuracy and weighted-F1
scores over the experimental datasets. Keywords: Deep learning | Network representations | Isomorphic substructures | Probability-guided random walk | Convolutional neural networks |
مقاله انگلیسی |
23 |
Probabilistic grammar-based neuroevolution for physiological signal classification of ventricular tachycardia
Probabilistic grammar-based neuroevolution for physiological signal classification of ventricular tachycardia-2019 Ventricular tachycardia is a rapid heart rhythm that begins in the lower chambers of the heart. When it happens continuously, this may result in life-threatening cardiac arrest. In this paper, we apply deep learning techniques to tackle the problem of the physiological signal classification of ventricular tachy- cardia, since deep learning techniques can attain outstanding performance in many medical applications. Nevertheless, human engineers are required to manually design deep neural networks to handle differ- ent tasks. This can be challenging because of many possible deep neural network structures. Therefore, a method, called ADAG-DNE, is presented to automatically design deep neural network structures using deep neuroevolution. Our approach defines a set of structures using probabilistic grammar and searches for best network structures using Probabilistic Model Building Genetic Programming. ADAG-DNE takes advantages of the probabilistic dependencies found among the structures of networks. When applying ADAG-DNE to the classification problem, our discovered model achieves better accuracy than AlexNet, ResNet, and seven non-neural network classifiers. It also uses about 2% of parameters of AlexNet, which means the inference can be made quickly. To summarize, our method evolves a deep neural network, which can be implemented in expert systems. The deep neural network achieves high accuracy. Moreover, it is simpler than existing deep neural networks. Thus, computational efficiency and diagnosis accuracy of the expert system can be improved. Keywords: Physiological signal classification | Heart disease | Neuroevolution | Probabilistic grammar | Genetic programming | Deep neural network |
مقاله انگلیسی |
24 |
Automatic driver stress level classification using multimodal deep learning
Automatic driver stress level classification using multimodal deep learning-2019 Stress has been identified as one of the contributing factors to vehicle crashes which create a significant cost in terms of loss of life and productivity for governments and societies. Motivated by the need to ad- dress the significant costs of driver stress, it is essential to build a practical system that can detect drivers’ stress levels in real time with high accuracy. A driver stress detection model often requires data from dif- ferent modalities, including ECG signals, vehicle data (e.g., steering wheel, brake pedal) and contextual data (e.g., weather conditions and other ambient factors). Most of the current works use traditional ma- chine learning techniques to fuse multimodal data at different levels (e.g., feature level) to classify drivers’ stress levels. Although traditional multimodal fusion models are beneficial for driver stress detection, they inherently have some critical limitations (e.g., ignore non-linear correlation across modalities) that may hinder the development of a reliable and accurate model. To overcome the limitations of traditional mul- timodal fusion, this paper proposes a framework based on adopting deep learning techniques for driver stress classification captured by multimodal data. Specifically, we propose a multimodal fusion model based on convolutional neural networks (CNN) and long short-term memory (LSTM) to fuse the ECG, vehicle data and contextual data to jointly learn the highly correlated representation across modalities, after learning each modality, with a single deep network. To validate the effectiveness of the proposed model, we perform experiments on our dataset collected using an advanced driving simulator. In this pa- per, we present a multi-modal system based on the adoption of deep learning techniques to improve the performance of driver stress classification. The results show that the proposed model outperforms model built using the traditional machine learning techniques based on handcrafted features (average accuracy: 92.8%, sensitivity: 94.13%, specificity: 97.37% and precision: 95.00%). Keywords: Deep learning | Driver stress detection | Convolutional neural network | Long short term memory | ECG signal | Vehicle data |
مقاله انگلیسی |
25 |
Intelligent and effective informatic deconvolution of “Big Data” and its future impact on the quantitative nature of neurodegenerative disease therapy
هوش انعطاف پذیر و موثر اطلاعاتی "داده های بزرگ" و تأثیر آن بر ماهیت کمی در درمان بیماری های نورودنژراتیک-2018 Biomedical data sets are becoming increasingly larger and a plethora of high-dimensionality data
sets (“Big Data”) are now freely accessible for neurodegenerative diseases, such as Alzheimer’s
disease. It is thus important that new informatic analysis platforms are developed that allow the
organization and interrogation of Big Data resources into a rational and actionable mechanism for
advanced therapeutic development. This will entail the generation of systems and tools that allow
the cross-platform correlation between data sets of distinct types, for example, transcriptomic, pro
teomic, and metabolomic. Here, we provide a comprehensive overview of the latest strategies,
including latent semantic analytics, topological data investigation, and deep learning techniques
that will drive the future development of diagnostic and therapeutic applications for Alzheimer’s dis
ease. We contend that diverse informatic “Big Data” platforms should be synergistically designed
with more advanced chemical/drug and cellular/tissue-based phenotypic analytical predictive models
to assist in either de novo drug design or effective drug repurposing.
Keywords: Big data; Informatics; High-dimensionality; Alzheimer’s disease; Aging; Molecular signature; Transcriptomics; Metabolomics; Proteomics; Genomics |
مقاله انگلیسی |
26 |
روش های یادگیری عمیق برای تشخیص و تقطیع خودکار چندساختاری قلبی MRI: آیا مشکل حل شده است؟
سال انتشار: 2018 - تعداد صفحات فایل pdf انگلیسی: 12 - تعداد صفحات فایل doc فارسی: 39 تفسیر بطن چپ، میوکارد و بطن راست از تصاویر تشدید مغناطیسی قلب (MRI cine 2D چندبخشی (چندبرشی)) روش بالینی رایجی برای رسیدن به تشخیص می باشد. به همین دلیل اتوماسیون امور مربوطه طی چند دهه ی اخیر مورد موضوع پژوهش های بسیاری بوده است. ما در این مقاله مجموعه داده ی «چالش تشخیص قلبی خودکار» (ACDC)، بزرگرترین مجموعه داده ی عمومی و تفسیرشده به منظور ارزیابی MRI قلبی (CMR) را ارائه می کنیم. این مجموعه داده شامل داده هایی از ۱۵۰ داده خوانی چنددستگاهی CMRI مبتنی بر اندازه گیری های مرجع و دسته بندی های صورت گرفته توسط دو متخصص پزشکی می باشد. هدف اصلی این مقاله، اندازه گیری توانایی روش های یادگیری عمیق نوین در ارزیابی CMRI، یعنی تقطیع میوکارد و دو بطن و نیز دسته بندی پاتولوژی هاست. ما پیرو چالش 2017 MICCAI-ACDC، نتایجی را از روش-های یادگیری عمیق ارائه شده توسط نه گروه پژوهشی در خصوص امر تقطیع و چهار گروه در خصوص امر دسته بندی ارائه می کنیم. نتایج نشان می دهند که بهترین روش ها قادرند تحلیل تخصیص را بازتولید (تکرار) کرده و به تبع آن به مقدار متوسط 0.97 برای امتیاز همبستگی استخراج خودکار شاخص های بالینی و دقت 0.96 برای تشخیص خودکار دست پیدا کنند. این نتایج به وضوح راه گشای تحلیل کاملاْ خودکار و بسیار دقیق CMRI قلبی خواهند بود. ما هم چنین سناریوهایی را نشان می دهیم که روش های یادگیری عمیق در آنها ناموفق هستند. نتایج دقیق و مفصل و نیز مجموعه داده، هر دو به صورت آنلاین در دسترس عموم قرار دارند، و پلتفرم برای ارائه ی نتایج جدید باز می باشد.
اصطلاحات تخصصی: تقطیع و تشخیص قلبی | یادگیری عمیق | MRI | بطن های چپ و راست | میوکارد. |
مقاله ترجمه شده |
27 |
بینایی ماشین و تکنیک های یادگیری عمیق برای شناسایی و ردیابی عابرپیاده : یک مرور
سال انتشار: 2018 - تعداد صفحات فایل pdf انگلیسی: 60 - تعداد صفحات فایل doc فارسی: 54 شناسایی و ردیابی عابرپیاده به یک میدان مهم در زمینه تحقیقات دیداری رایانهای تبدیل شدهاست . این علاقه رو به رشد , که در دهههای اخیر آغاز شد, ممکن است توسط بسیاری از برنامههای کاربردی بالقوه توضیح داده شود که میتوانند از نتایج این زمینه تحقیقاتی استفاده کنند , به عنوان مثال رباتیک , سرگرمی , مراقبت , مراقبت از سالمندان و معلولین , و شاخص مبتنی بر محتوا .
در این مقاله ، سیستمهای شناسایی عابرپیاده مبتنی بر بینایی براساس زمینه کاربرد ، فنآوری اکتساب ، تکنیکهای دیداری رایانهای و استراتژیهای طبقهبندی تحلیل میشوند . سه زمینه کاربردی اصلی مورد بحث قرار گرفتهاند : نظارت ویدیویی ، تعامل انسان - ماشین و آنالیز . به خاطر تنوع زیاد فناوری ، این مقاله هر دو تفاوتهای بین سیستمهای دید دوبعدی و سهبعدی و سیستمهای داخلی و بیرونی را مورد بحث قرار میدهد . نویسندگان یک بخش اختصاصی را برای تجزیه و تحلیل روشهای یادگیری عمیق ، از جمله شبکههای عصبی مصنوعی در شناسایی و ردیابی عابران پیاده، در نظر گرفتن کاربرد اخیر آنها برای چنین سیستمهایی که اخیرا ً مورد استفاده قرار گرفتهاند ، اختصاص دادند . در نهایت ، تمرکز بر روی دیدگاه طبقهبندی ، تکنیکهای یادگیری ماشینی مختلف مورد تجزیه و تحلیل قرار گرفت ، و بحث بر روی عملکرد طبقهبندی بر روی مجموعه دادههای معیار مختلف را مبنا قرار داد . نتایج گزارششده بر اهمیت سیستمهای شناسایی پیادهرو در مجموعه دادههای مختلف برای ارزیابی نیرومندی گروههای محاسباتی مورد استفاده در ورودی طبقهبندی کنندهها تاکید میکند . واژه های کلیدی: شناسایی عابرپیاده | ردیابی انسان | یادگیری عمیق | شبکه عصبی مصنوعی | یادگیری ماشین | شبکه عصبی مصنوعی | مشخصههای استخراج |
مقاله ترجمه شده |
28 |
یادگیری عمیق(ژرف) در تجزیه و تحلیل کلان داده ( داده های بزرگ): یک مطالعه تطبیقی
سال انتشار: 2017 - تعداد صفحات فایل pdf انگلیسی: 13 - تعداد صفحات فایل doc فارسی: 31 روش های فراگیری عمیق به طور گسترده ای در زمینه های مختلف علوم و مهندسی مانند تشخیص گفتار، طبقه بندی تصویر و روش های یادگیری در پردازش زبان مورد استفاده قرار می گیرد. به طور مشابه، تکنیک های پردازش داده های سنتی محدودیت های زیادی برای پردازش مقدار زیادی داده ها دارند. علاوه بر این، تجزیه و تحلیل داده های بزرگ نیاز به الگوریتم های جدید و پیچیده بر اساس تکنیک های یادگیری ماشین و عمیق برای پردازش داده ها در زمان واقعی با دقت و کارایی بالا دارد . با این حال، به تازگی، تحقیقات مختلف تکنیک های یادگیری عمیق با استفاده از یادگیری ترکیبی و مکانیسم های آموزش پردازش داده ها با سرعت بالا تلفیق شده است. بنابراین بیشتر این تکنیک ها به سناریوها اختصاص دارد و براساس فضای بردار، عملکرد ضعیف در سناریوهای عمومی و ویژگی های یادگیری را در داده های بزرگ نشان می دهد. علاوه بر این، یکی از دلایل چنین ضعف، دخالت زیاد انسانها در طراحی الگوریتم های پیچیده و بهینه شده بر اساس تکنیک های یادگیری ماشین و عمیق است. در این مقاله، ما روشی را برای مقایسه روش های مختلف یادگیری عمیق برای پردازش داده های عظیم با تعداد زیادی از نورون ها و لایه های پنهان ارائه می دهیم. مطالعه تطبیقی نشان می دهد که تکنیک های یادگیری عمیق می تواند با معرفی چندین روش در ترکیب با تکنیک های آموزش تحت نظارت و بدون نظارت ایجاد شود.
کلمات کلیدی: داده های بزرگ | یادگیری عمیق | شبکه های اعتقاد عمیق | شبکه های عصبی تکاملی |
مقاله ترجمه شده |
29 |
Big Data Challenges, Techniques, Technologies, and Applications and How Deep Learning can be Used
Big Data Challenges, Techniques, Technologies, and Applications and How Deep Learning can be Used-2016 It is already true that Big Data has drawn huge attention from researchers in information sciences, policy and decision makers
in governments and enterprises. A large number of fields and sectors, ranging from economic and business activities to public
administration, from national security to scientific researches in many areas, involve with Big Data problems. This talk is aimed
to demonstrate a close-up view about Big Data, including Big Data applications, Big Data opportunities and challenges, as well as
the state-of-the-art techniques and technologies that we currently adopt to deal with the Big Data problems. The second part is to
discuss the deep learning role in Big Data. In recent years, deep learning caves out a research wave in machine learning. With
outstanding performance, more and more applications of deep learning in pattern recognition, image recognition, speech
recognition, and video processing have been developed. Restricted Boltzmann machine (RBM) plays an important role in current
deep learning techniques, as most of existing deep networks are based on or related to it. This talk will also discuss how the big
data relates with the deep learning.
Keywords: Machine learning | Pattern recognition | Big data | Natural language processing | Data processing | Information analysis |
مقاله انگلیسی |