دانلود و نمایش مقالات مرتبط با خلاصه سازی::صفحه 1
دانلود بهترین مقالات isi همراه با ترجمه فارسی 2

با سلام خدمت کاربران در صورتی که با خطای سیستم پرداخت بانکی مواجه شدید از طریق کارت به کارت (6037997535328901 بانک ملی ناصر خنجری ) مقاله خود را دریافت کنید (تا مشکل رفع گردد). 

نتیجه جستجو - خلاصه سازی

تعداد مقالات یافته شده: 10
ردیف عنوان نوع
1 A text summarization method based on fuzzy rules and applicable to automated assessment
یک روش خلاصه سازی متن بر اساس قوانین فازی و قابل استفاده برای ارزیابی خودکار-2019
In the last two decades, the text summarization task has gained much importance because of the large amount of online data, and its potential to extract useful information and knowledge in a way that could be easily handled by humans and used for a myriad of purposes, including expert systems for text assess- ment. This paper presents an automatic process for text assessment that relies on fuzzy rules on a vari- ety of extracted features to find the most important information in the assessed texts. The automatically produced summaries of these texts are compared with reference summaries created by domain experts. Differently from other proposals in the literature, our method summarizes text by investigating correlated features to reduce dimensionality, and consequently the number of fuzzy rules used for text summariza- tion. Thus, the proposed approach for text summarization with a relatively small number of fuzzy rules can benefit development and use of future expert systems able to automatically assess writing. The pro- posed summarization method has been trained and tested in experiments using a dataset of Brazilian Portuguese texts provided by students in response to tasks assigned to them in a Virtual Learning En- vironment (VLE). The proposed approach was compared with other methods including a naive baseline, Score, Model and Sentence, using ROUGE measures. The results show that the proposal provides better f-measure (with 95% CI) than aforementioned methods.
Keywords: Text assessment | Computer-assisted assessment | Automatic text summarization | Fuzzy logic
مقاله انگلیسی
2 Modelling perceptions on the evaluation of video summarization
مدل سازی ادراک در مورد ارزیابی خلاصه سازی ویدیو-2019
Hours of video are uploaded to streaming platforms every minute, with recommender systems suggest- ing popular and relevant videos that can help users save time in the searching process. Recommender systems regularly require video summarization as an expert system to automatically identify suitable video entities and events. Since there is no well-established methodology to evaluate the relevance of summarized videos, some studies have made use of user annotations to gather evidence about the effec- tiveness of summarization methods. Aimed at modelling the user’s perceptions, which ultimately form the basis for testing video summarization systems, this paper seeks to propose: (i) A guideline to collect unrestricted user annotations, (ii) a novel metric called compression level of user annotation (CLUSA) to gauge the performance of video summarization methods, and (iii) a study on the quality of annotated video summaries collected from different assessment scales. These contributions lead to benchmarking video summarization methods with no constraints, even if user annotations are collected from different assessment scales for each method. Our experiments showed that CLUSA is less susceptible to unbalanced compression data sets in comparison to other metrics, hence achieving higher reliability estimates. CLUSA also allows to compare results from different video summarizing approaches.
Keywords: Video summarization | Subjective evaluation | Evaluation metric
مقاله انگلیسی
3 A soft computing approach to big data summarization
رویکرد محاسباتی نرم برای خلاصه سازی داده های بزرگ-2018
The added value of a dataset lies in the knowledge a domain expert can extract from it. Considering the continuously increasing volume and velocity of these datasets, efficient tools have to be defined to generate meaningful, condensed and human-interpretable representations of big datasets. In the proposed approach, soft computing techniques are used to define an interface between the numerical and categorical space of data definition and the linguistic space of human reasoning. Based on the expert’s own vocabu lary about the data, a personal summary composed of linguistic terms is efficiently generated and graphically displayed as a term cloud offering a synthetic view of the data properties. Using dedicated indexing strategies linking data and their subjective linguis tic rewritings, exploration functionalities are provided on top of the summary to let the user browse the data. Experimentations confirm that the space change operates in linear time wrt. the size of the dataset making the approach tractable on large scale data.
Keywords: Data personalisation; Linguistic summaries; Soft computing; Knowledge extraction; Visualization; Specificity measure
مقاله انگلیسی
4 داده های بزرگ و نظارت دولتی
سال انتشار: 2018 - تعداد صفحات فایل pdf انگلیسی: 4 - تعداد صفحات فایل doc فارسی: 13
کاربرد داده های بزرگ در نظارت دولتی در دوران ابتدایی و طفولیت خود می باشد، محققان فاقد همبستگی نزدیک بین خودشان هستند. از نقطه نظر سیستماتیک، این مقاله راهبردهای ملّی، کاربردهای فناوری، فرصت ها و چالش های داده های بزرگ را خلاصه سازی و تحلیل می کند و اقدامات متقابل و چشم اندازهای تحقیقاتی مطرح می کند. در روزهای پیش رو، دولت باید قوانین و قواعد جزئیاتی به منظور بهبود سودمندی داده ها، باریک کردن شکاف بین ادارات و کشورها وضع کند؛ باید مکانیزم هایی برای بهبود قابلیت ها و اشتیاق مدیران و کارکنان دولتی برقرار کند.
کلیدواژه ها: داده های بزرگ | فناوری | کاربرد | نظارت دولتی | ظرفیت دولتی
مقاله ترجمه شده
5 Computing Hierarchical Summary from Two-Dimensional Big Data Streams
خلاصه سازی محاسبات سلسله مراتبی از جریانهای داده های بزرگ دو بعدی-2018
There are many application domains, where hierarchical data is inherent, but surprisingly, there are few techniques for mining patterns from such important data. Hierarchical Heavy Hitters (HHH) and multilevel and Cross-Level Association Rules (CLAR) mining are well-known hierarchical pattern mining techniques. The problem in these techniques; however, is that they focus on capturing only global patterns from data but cannot identify local contextual patterns. Another problem in these techniques is that they treat all data items in the transaction equally and do not consider the sequential nature of the relationship among items within a transaction; hence, they cannot capture the correlation semantic within the transactions of the data items. There are many applications such as clickstream mining, healthcare data mining, network monitoring, and recommender systems, which require to identify local contextual patterns and correlation semantics. In this work, we introduce a new concept, which can capture the sequential nature of the relationship between pairs of hierarchical items at multiple concept levels and can capture local contextual patterns within the context of the global patterns. We call this notion Hierarchically Correlated Heavy Hitters (HCHH). Specifically, the proposed approach finds the correlation between items corresponding to hierarchically discounted frequency counts. We have provided formal definitions of the proposed concept and developed algorithmic approaches for computing HCHH in data streams efficiently. The proposed HCHH algorithm have deterministic error guarantees, and space bounds. It requires O(η/ϵpϵs) memory, where h is a small constant, and ϵp ∈ [0,1], ϵs ∈ [0,1] are user defined parameters on upper bounds of estimation error. We have compared the proposed HCHH concept with existing hierarchical pattern mining approaches both theoretically as well as experimentally.
Index Terms: Hierarchical patterns, association rules, frequent patterns
مقاله انگلیسی
6 Effective aggregation of various summarization techniques
متراکم سازی موثر روشهای مختلف خلاصه سازی-2018
A large number of extractive summarization techniques have been developed in the past decade, but very few enquiries have been made as to how these differ from each other or what are the factors that actually affect these systems. Such meaningful comparison if available can be used to create a robust ensemble of these approaches, which has the possibility to consistently outperform each individual summarization system. In this work we examine the roles of three principle components of an extractive summarization technique: sentence ranking algorithm, sentence similarity metric and text representation scheme. We show that using a combination of several different sentence similarity measures, rather than only one, significantly improves performance of the resultant meta-system. Even simple ensemble techniques, when used in an informed manner, prove to be very effective in improving the overall performance and consistency of summarization systems. A statistically significant improvement of about 5% to 10% in ROUGE-1 recall was achieved by aggregating various sentence similarity measures. As opposed to this aggregation of several ranking algorithms did not show a significant improvement in ROUGE score, but even in this case the resultant meta-systems were more robust than candidate systems. The results suggest that new extractive summarization techniques should particularly focus on defining a better sentence similarity metric and use multiple sentence similarity scores and ranking algorithms in favour of a particular combination.
keywords: Summarization |Ensemble
مقاله انگلیسی
7 از هوش تجاری تا مدیریت جریان داده های معنایی
سال انتشار: 2016 - تعداد صفحات فایل pdf انگلیسی: 8 - تعداد صفحات فایل doc فارسی: 28
فن آوری های وب معنایی به طور فزاینده ایی برای بهره برداری از روابط بین داده ها استفاده می شود. علاوه بر این، زمینه های جدیدی از سیستم های زمان واقعی، مانند شبکه های اجتماعی، حسگرها، دوربین ها و یا اطلاعات آب و هوا، به طور مداوم داده تولید می کنند. این به معنی این است که داده ها و ارتباط بین آنها را در حال وسیع تر شدن است. هم چنین داده های زیاد نیاز به تجزیه و تحلیل، پردازش، و همچنین ذخیره شدن در صورت لزوم دارند. در این مقاله، فعالیت های اخیر در هوش کسب و کار در زمان واقعی را همراه با مدیریت جریان داده معنایی معرفی می کنیم. روش های زمینه ای مانند، تحقیق مداوم، خلاصه سازی داده ها و تطبیق داده ها ، و استدلال جریان را ارائه خواهیم داد.
کلمات کلیدی: جریان داده ها | داده های پیوندی | هوش تجاری | استدلال جریان
مقاله ترجمه شده
8 بررسی یکپارچگی خارجی برای داده های بزرگ برون سپاری شده در ابر و اینترنت اشیاء: یک تصویر بزرگ
سال انتشار: 2015 - تعداد صفحات فایل pdf انگلیسی: 10 - تعداد صفحات فایل doc فارسی: 42
همان طور که محساسبات ابری برای فرایند های داده های بزرگ در حال سازگاری هر چه بیشتر می باشد از این رو امنیت داده به یکی از چالش های اصلی صاحبان داده می باشد .یکپارچگی داده یکی فاکتور و شاخص مهم تقریبا در هر داده و محاسبات مربوط به این زمینه می باشد .این خود نه تنها یکی از خدمات کیفی مب شاد بلکه یک بخش مهم امنیت داده همچون داده های تولید شده توسط مسایل مرتبط با اینترنت می باشد بررسی و تایید یکپارچگی داده ها به طرز فزاینده ای مخصوصا در باره داده های برون منبعی امری مهم تلقی می شود.بنا براین موضعات تحقیقاتی بررسی یکپارچگی داده ها به طرز فوق العاده ای سوق و علاقه ی تحقیقاتی را در سالهای اخیر به سمت خود جذب کرده است .در بین همه این معیار ها ، کارآمدی و امنیت دو چالش اصلی در این بررسی می باشند. در این مقاله ما دیدی عظیم را از طریق مهیا سازی تجزیه و تحلیل درباره تکنیک های بررسی یکپارچگی داده های مبتنی بر احراز هویت در داده های ابر و مسایل مرتبط با اینترنت بیان خواهیم کرد.ما جنبه های مختلف مشکلات این حوزه تحقیقاتی را نیز مورد تجزیه و تحلیل قرار می دهیم.اول ما مشکلات تحقیقات را با جمع بندی و خلاصه سازی متودولوزی های تحقیقاتی و انگیزش تحقیقاتی به نمایش می گذاریم .دوم ما دست یافته های فعلی رویکرد های حاکی از این حوزه را جمع بندی کرده و مورد مقایسه قرار می دهیم.در نهایت نیز ما دید خود را برای توسعه های ممکن در پیش رو معرفی خواهیم کرد .
واژه های کلیدی : رایانش ابری | محاسبات ابری | امنیت داده | داده های بزرگ | اینترنت اشیا | بررسی یکپارچگی | حسابرسی عمومی
مقاله ترجمه شده
9 بهبود خلاصه سازی متن با استفاده از منطق فازی و تحلیل معنایی پنهان
سال انتشار: 2014 - تعداد صفحات فایل pdf انگلیسی: 8 - تعداد صفحات فایل doc فارسی: 21
در عصر جدید ، وقتی اطلاعات عظیم در اینترنت دردسترس است ، بسیار مشکل است تا اطلاعات با سرعت و بالاترین دقت استخراج گردد . در اینترنت مطالب زیادی دردسترس است که می توان از آنها اطلاعاتی را کسب کرد و اینکار به مکانیسم مناسبی نیاز دارد . این مشکل با مکانیسم خودکار خلاصه سازی متن قابل رفع شدن است . خلاصه سازی متن فرایند ایجاد نسخه های کوتاه تر از متن اصلی می باشد که شامل اطلاعات مهم می باشد . خلاصه سازی متن به طور گسترده به دو طبقه تقسیم می شود : چکیده و استخراج که برای خلاصه سازی متن بکار می رود . رویکرد ما از روش استخراج بهره گرفته است که مبتنی بر رویکرد استخراج منطق فازی و رویکرد تحلیل معنایی خلاصه سازی متن با استفاده از تحلیل معنایی پنهان می باشد .
کلمات کلیدی : خلاصه سازی متن | منطق فازی | قاعده فازی | تحلیل معنایی پنهان
مقاله ترجمه شده
10 بهبود خلاصه سازی متن با استفاده از روش مبتنی بر منطق فازی
سال انتشار: 2012 - تعداد صفحات فایل pdf انگلیسی: 6 - تعداد صفحات فایل doc فارسی: 15
خلاصه سازی خودکار متن که در جریان تحقیق گسترده صورت گرفته است اهمیت زیادی کسب نموده است به طوریکه از طریق این روش ، دردسترس بودن اطلاعات آنلاین روبه افزایش است . خلاصه سازی خودکار متن به گونه ای است که متون بزرگتر اصلی را به صورت خلاصه به متون کوتاه تبدیل می کند . دو روش عمده چکیده و استخراج است که برای خلاصه سازی متن بکار می رود . رویکرد ما از روش استخراج بهره گرفته است . خلاصه سازی با استفاده از استخراج شامل مشخص کردن ویژگیهای مهم و جملات استخراج شده بر اساس حوزه آنها می باشد . سی سند از اخبار مبتنی بر URL به عنوان ورودی استفاده شده است . پس از پیش پردازش سند ورودی ، هشت ویژگی استفاده شدند تا حوزه آنها برای هر جمله محاسبه گردد . در این تحقیق ، برای بهبود در استخراج جملات خلاصه ، روش منطق فازی پیشنهاد شده است .
کلمات کلیدی : روش منطق فازی | مبتنی بر ویژگی | مرکز فازی | خلاصه سازی متن | امتیاز جمله
مقاله ترجمه شده
rss مقالات ترجمه شده rss مقالات انگلیسی rss کتاب های انگلیسی rss مقالات آموزشی
logo-samandehi
بازدید امروز: 12356 :::::::: بازدید دیروز: 0 :::::::: بازدید کل: 12356 :::::::: افراد آنلاین: 80