@article { author = {rahmani, somayeh and Khajehvand, Vahid and torabian, mohsen}, title = {Burst-aware Placement for Improving VM Consolidation in Cloud Environment}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {1-14}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {In cloud computing, virtual machine placement is the decision making process of selecting a destination physical machine to host a virtual machine, according to virtual machine requirements and physical machine available resources. Virtual machine placement is one of the main sub-problems in the virtual machine consolidation process which faces different challenges. Burst-aware placement plays a key role in improving performance in cloud computing systems and hence, requires special attention and investigation. Therefore, in this study, we will develop a virtual machine consolidation process model by proposing an efficient method for virtual machine placement. The proposed method consists of two burstiness-aware algorithms for initial and reallocation of virtual machines. By presenting these algorithms, we aim to minimize the negative effects of workload bursts on the process of making decisions about the placement of virtual machines. We use the random and real dataset and CloudSim simulator to evaluate the performance of the proposed method. The results confirm the advantages of the method regarding performance compared to benchmark methods.}, keywords = {Initial placement,Reallocation,Burstiness,virtualization,cloud computing}, title_fa = {جایگذاری انفجارآگاه جهت بهبود فرایند تجمیع ماشین مجازی در محیط ابری}, abstract_fa = {در ابر محاسباتی جایگذاری ماشین مجازی فرایند تصمیم گیری انتخاب یک ماشین فیزیکی مناسب برای میزبانی یک ماشین مجازی با توجه به نیارهای ماشین مجازی و منابع موجود ماشین فیزیکی می‌باشد. جایگذاری ماشین مجازی یکی از زیرمسائل اصلی در فرایند تجمیع ماشین مجازی می‌باشد که با چالش‌های متعددی مواجه می‌باشد. جایگذاری انفجار‌آگاه نقشی کلیدی در افزایش کارائی در سیستم‌های محاسبات ابری داشته که نیاز به توجه و بررسی خاص داردبه همین دلیل ما در این مقاله با ارائه روشی موثر برای جایگذاری ماشین‌های مجازی، مدل فرایند تجمیع ماشین مجازی را توسعه داده‌ایم. روش پیشنهادی شامل دو الگوریتم انفجارآگاه برای جایگذاری آغازین و مجدد ماشین‌های مجازی می‌باشد. هدف الگوریتم‌های پیشنهادی کاهش اثرات منفی انفجارهای بارکاری، در فرایند تصمیم‌گیری برای جایگذاری ماشین‌های مجازی می‌باشد. ما از بارهای کاری واقعی و تصادفی و شبیه‌ساز کلودسیم برای ارزیابی کارایی الگوریتم‌های پیشنهادی استفاده کرده‌ایم. نتایج آزمایشات برتری الگوریتم‌های پیشنهادی را از نظر کارائی در مقایسه با الگوریتم‌های پیشین تائید می‌کنند.}, keywords_fa = {جایگذاری آغازین,جایگذاری مجدد,انفجار بارکاری,مجازی سازی,ابر محاسباتی}, url = {https://jscit.nit.ac.ir/article_103881.html}, eprint = {https://jscit.nit.ac.ir/article_103881_d8252d745bdc7ce51371de8ebe079aa1.pdf} } @article { author = {Ghalehnoie, Mohsen}, title = {Improvement of Genetic Algorithm Using a Fuzzy Control Combined with Coevolutionary Algorithm}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {15-26}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {In order to achieve the best performance in genetic algorithm, proper determination of parameters is necessary. This paper addresses the intelligent determination of the crossover probability between two selected parents in each generation. Unlike most existing techniques that utilize the diversity characteristics of each generation to determine the crossover probability throughout the current generation, this paper defines some novel phenotype and genotype features, and develops a zero-order Takagi-Sugeno fuzzy controller to derive the proper crossover probability for each selected parent pair. As such, each pair has a unique probability parameter that results in the flexibility of the standard genetic algorithm depending on the region being searched and avoids premature convergence. In addition, in the proposed method, the consequent part of the fuzzy rules is not fixed but is generated through a coevolutionary process and simultaneously with the decision variables of the optimization problem. This enhances the efficiency of the proposed method. The simulation results on a set of optimization benchmarks show the performance of this method. Its effectiveness is also investigated by applying it to the complicated problem of terrain avoidance/terrain following fly.}, keywords = {Coevolutionary algorithm,Crossover probability,Genetic Algorithm,Genotype characteristic,Phenotype characteristic,Takagi-Sugeno fuzzy controller,Terrain avoidance/terrain following fly}, title_fa = {بهبود الگوریتم ژنتیک با استفاده از ترکیب منطق فازی و الگوریتم هم‌تکاملی}, abstract_fa = {به منظور رسیدن به بهترین عملکرد در الگوریتم ژنتیک، تعیین مناسب پارامترها ضروری است. این مقاله بر تعیین هوشمند پارامتر احتمال بازترکیب بین هر دو والد انتخابی در هر نسل دلالت دارد. بر خلاف اغلب روش‌های موجود که در آنها ویژگی‌های پراکندگی هر نسل به منظور تعیین احتمال بازترکیب در کل نسل جاری استفاده می‌شود، این مقاله ویژگی‌های فنوتیپ و ژنوتیپ جدیدی را برای هر زوج والد انتخابی در نسل جاری تعریف نموده و به کمک یک کنترل‌کننده فازی تاکاگی-سوگنوی مرتبه صفر، پارامتر احتمال بازترکیب تعیین می‌گردد. بدین ترتیب، هر زوج والد انتخابی در هر نسل دارای پارامتر بازترکیب منحصربفردی است که سبب انعطاف الگوریتم ژنتیک بسته به ناحیه مورد جستجو شده و از همگرایی زودرس الگوریتم ژنتیک جلوگیری می‌نماید. علاوه بر این، در روش پیشنهادی، جمله مربوط به بخش آنگاه در هر یک از قواعد فازی ثابت نبوده بلکه از طریق یک فرآیند تکاملی و همزمان با دیگر متغیرهای تصمیم تولید می‌شود. این عمل سبب افزایش بیشتر کارایی این روش می‌گردد. نتایج شبیه‌سازی بر روی مجموعه‌ای از مسائل بهینه‌سازی استاندارد، عملکرد مطلوب این روش را نشان می‌دهد. همچنین، کارایی این روش با اعمال بر روی مسأله پیچیده پرواز تعقیب عوارض زمین بررسی می‌گردد.}, keywords_fa = {احتمال بازترکیب,الگوریتم ژنتیک,الگوریتم هم تکاملی,پرواز تعقیب عوارض زمین,کنترل فازی تاکاگی-سوگنو,ویژگی ژنوتیپ,ویژگی فنوتیپ}, url = {https://jscit.nit.ac.ir/article_103662.html}, eprint = {https://jscit.nit.ac.ir/article_103662_930df55cfe65c360d0314d2325d31e60.pdf} } @article { author = {Zandifar, Mozhdeh and Tahmoresnezhad, Jafar}, title = {Unsupervised domain adaptation via Bregman Divergence minimization and Adaptive Classifier learning}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {27-42}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {In pattern recognition and image classification, the common assumption that the training set (source domain) and test set (target domain) share the same distribution is often violated in real-world applications. In this case, traditional learning models may not generalize well on test sets. To tackle this problem, domain adaptation try to exploit training data with same distribution from other related source domain to generalize model for target domain.This paper presents a domain adaptation method which learns to adapt the data distribution of the source domain to that of the target domain where no labeled data of the target domain is available. Our method jointly learns a low dimensional representation space and an adaptive classifier. In fact, we try to find a representation space and an adaptive classifier on this representation space such that the distribution gap between the two domains is minimized and the risk of the adaptive classifier is also minimized.In this paper, we propose a novel solution to tackle unsupervised domain adaptation for classification. In the unsupervised scenario where no labeled samples from the target domain is available, our model transforms data such that the source and target distributions become similar. To compare two distributions, our approaches make use of Bregman divergence. However, this does not suffice to generalize the model. Here, we propose to make better use model matching along with representation learning to tackle distribution mismatch across domains. The framework extends classification model by adding an adaptive classifier, which generalizes the target classifier far from the source data. Then this framework guarantees the target classifier minimizes the empirical risk in target domain and maximize manifold consistency with source data structure. Our empirical study on multiple open data sets validates that our proposed approach can consistently improve the classification accuracy compared to the basic machine learning and state-of-the-art transfer learning methods.}, keywords = {Transfer learning,Bregman divergence,Dimensionality reduction,Adaptive classifier}, title_fa = {تطبیق دامنه بدون نظارت با واگرایی برگمن و طبقه‌بند انطباقی}, abstract_fa = {در تشخیص الگو و طبقه‌بندی تصویر، فرض معمول بر این است که مجموعه آموزشی (دامنه منبع) و مجموعه تست (دامنه هدف) توزیع یکسانی را به اشتراک می‌گذارند که در اغلب کاربردهای دنیای واقعی نقض می‌شود. در این‌صورت ممکن است مدل‌های یادگیری سنتی بر روی مجموعه‌های آموزشی به درستی تعمیم داده نشوند. برای مقابله با این مشکل، یادگیری انتقالی و تطبیق دامنه، سعی می‌کنند با بهره‌گیری از داده‌های آموزشی با توزیع مشابه با دامنه منبع، مدل را برای دامنه هدف تعمیم دهند. در این مقاله، ما یک راه حل جدید برای رویارویی با تطبیق دامنه بدون نظارت برای طبقه‌بندی پیشنهاد می‌دهیم. در سناریو بدون نظارت که در آن هیچ نمونه برچسب دار از دامنه هدف موجود نیست، مدل ما داده‌ها را به گونه‌ای تغییر می‌دهد که توزیع نمونه‌های دامنه منبع وهدف مشابه شوند. برای مقایسه دو توزیع، رویکرد ما ‌ از واگرایی برگمن استفاده می‌کند. با این وجود این رویکرد به تنهایی برای تعمیم مدل کافی نیست. در اینجا، ما یک مدل تطبیق‌پذیر برای یادگیری نمایش بهتر جهت مقابله با عدم توازن توزیع در دامنه‌های مختلف ارائه می‌دهیم. چارچوب مدل طبقه-بندی با اضافه کردن یک طبقه‌بند سازگار برای طبقه‌بندی دامنه هدف تعمیم می‌یابد. بدین‌ترتیب، این چارچوب تضمین کننده طبقه‌بندی دامنه هدف بوده و خطر ریسک تجربی در دامنه هدف را به حداقل می‌رساند و سازگاری هندسی با ساختار داده‌های منبع را به حداکثر می‌رساند. مطالعه تجربی ما بر روی مجموعه داده‌های معتبر موید این است که رویکرد پیشنهادی ما می تواند به طور مداوم دقت طبقه-بندی را در مقایسه با الگوریتم‌های یادگیری ماشین پایه و روش‌های تطبیق‌دامنه بهبود دهد.}, keywords_fa = {یادگیری انتقالی,واگرایی برگمن,کاهش ابعاد,طبقه‌بند انطباقی}, url = {https://jscit.nit.ac.ir/article_104378.html}, eprint = {https://jscit.nit.ac.ir/article_104378_a6a56bf10a8630d3d5b264319ba90a6e.pdf} } @article { author = {Nasabolhosseini, Adel and Hamidzadeh, Javad}, title = {Precision Improvement of Intrusion Detection System using feature reduction based on Fuzzy Rough Set and Ensemble Classifiers}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {43-54}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {In today's world, protecting data against intrusion through the Internet or network is necessary, and various tools have been proposed in this field. Intrusion Detection System has the task of identifying and detecting any unauthorized use of data by investigating network traffic. In these systems, many different methods, especially machine learning algorithms, is used. Various approaches have been proposed to improve these algorithms in the intrusion detection process. Some of these approaches include reducing false alarms, reducing dimensionality, reducing samples, ensemble methods, improving training and test dataset, applying multilevel methods, etc. Some of the ensemble methods proposed by researchers do not consider all aspects of the attack. Some other methods use accuracy metric, which in large and unbalanced data, this criterion makes the detection of low-number attacks difficult. One of the challenges in intrusion detection is the low precision of classifiers in identifying the type of network attacks. The purpose of this paper is to propose an intrusion detection system to improve the precision by using fuzzy rough set theory and weighted classifiers ensemble. In our proposed method, after reducing the features by the fuzzy rough set theory, the classifiers ensemble is used to improve the precision of attack detection. The precision of the proposed method in detecting intrusion behavior assaults was 98.93 on average. Also, on average, the detection rate of DoS, probe, R2L, U2R attacks and normal behavior was 96.85, 93.20, 91.31, 100% and 98.14 respectively. The results of the experiments show that the proposed method has more precision than other methods.}, keywords = {Intrusion Detection System,Feature reduction,Ensemble Classifiers,Precision Measure,Fuzzy Rough Set}, title_fa = {بهبود دقت سامانه تشخیص نفوذ به کمک کاهش‌ویژگی بر اساس مجموعه فازی ناهموار و ترکیب طبقه‌بندها}, abstract_fa = {در دنیای امروز، محافظت از داده‌ها در مقابل نفوذ از طریق اینترنت یا شبکه‌، امری ضروری است و ابزارهای مختلفی در این زمینه ارائه ‌شده‌است. سامانه تشخیص نفوذ با بررسی ترافیک شبکه وظیفه شناسایی و تشخیص هرگونه استفاده غیر‌مجاز از داده‌ها را دارد. در این سامانه‌ها از روش‌های متعددی به ویژه الگوریتم‌های یادگیری ماشین بهره‌گیری می‌شود و رویکردهای مختلفی ازجمله کاهش هشدارهای غلط، کاهش ابعاد، کاهش نمونه‌ها، روش‌های ترکیبی، به‌سازی دادگان‌ آموزشی و آزمون، به‌کارگیری روش‌های چند سطحی و غیره به‌منظور بهبود این الگوریتم‌ها در فرآیند تشخیص نفوذ ارائه‌شده است. برخی از روش‌های ترکیبی ارائه‌شده توسط محققان کلیه جنبه‌های حمله را موردنظر قرار نمی‌دهد. بعضی از آن ها نیز از معیار صحت استفاده می کنند که این معیار در داده‌های حجیم و نامتوازن باعث ضعف در تشخیص حمله‌های با تعداد نمونه‌های بسیار کم می‌گردد. یکی از چالش‌ها در تشخیص نفوذ، دقت پایین طبقه‌بندها در شناسایی نوع حملات شبکه است. هدف از این تحقیق، پیشنهاد یک سامانه برای بهبود دقت در تشخیص نفوذ با استفاده از نظریه مجموعه فازی ناهموار و ترکیب وزن‌دار طبقه‌بندها است. درروش پیشنهادی ما، پس از کاهش ویژگی‌ها توسط نظریه مجموعه فازی ناهموار، از ترکیب طبقه‌بندها برای بهبود دقت در تشخیص حملات استفاده‌ شده است. دقت روش پیشنهادی در شناسایی رفتار حمله به طور میانگین به 93/98 رسید و همچنین به طور میانگین میزان شناسایی رفتارعادی 14/98، حمله‌های منع سرویس 85/96 و حمله‌های پویش 20/93 حمله‌های دسترسی از راه دور 31/91 و حمله‌های کاربر به ریشه 100 به دست آمد. نتایج حاصل از انجام آزمایش‌ها نشان دهنده برتری روش پیشنهادی نسبت به‌ سایر روش‌های موجود است.}, keywords_fa = {سامانه تشخیص نفوذ,کاهش ویژگی,ترکیب طبقه‌بندها,معیار دقت,مجموعه فازی ناهموار}, url = {https://jscit.nit.ac.ir/article_105095.html}, eprint = {https://jscit.nit.ac.ir/article_105095_b08e184fb395a3cc4a4c61f63217e17f.pdf} } @article { author = {sabeti, Vajiheh and Ahmadi, Sara}, title = {Adaptive Image Steganography in the Difference Value of Discrete Cosine Transform Coefficients}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {55-66}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {Steganography is the science and art to conceal the existence of communication, by hiding information in a digital media, the existence of communication is hidden from the enemy's point of view. steganography in the frequency transform coefficients and in particular the discrete cosine transform (DCT), due to its low detection capability, is one of the most common and active areas of steganography among researchers. But most of the methods in this area have used embedding directly in the DCT coefficients. The main purpose of the proposed method in this paper is to suggest a different embedding platform in this field. In the proposed embedding method, the DCT transformation coefficients are coupled and embedding is on the difference value of each couple. The embedding is done in such a way that the receiver can extract the data completely by calculating the difference in the value of the neighboring pairs. The proposed method is an adaptive method because the number of embedded bits in each pair of coefficients is dependent on the difference between them. The results of various experiments show that the proposed method, with the preservation of the quality of the stego image at a desirable level and having a reasonable embedding capacity, is less likely to be detected in relation to the existing steganalysis attacks.}, keywords = {Steganography,Steganalysis,image,Discrete Cosine Transform}, title_fa = {پنهان نگاری تطبیقی تصاویر در مقدار اختلاف ضرایب کسیسنوس گسسته}, abstract_fa = {پنهان نگاری علم و هنر پنهان سازی وجود ارتباط است، بدین صورت که با پنهان کردن اطلاعات در یک رسانه دیجیتال وجود ارتباط از دید فرد متخاصم پنهان می‌ماند. پنهان نگاری در ضرایب تبدیلات فرکانسی و به صورت خاص تبدیل کسینوس گسسته (DCT)، به دلیل قابلیت کشف کمتر، یکی از رایج ترین و فعال ترین حوزه‌های پنهان نگاری در میان محققان است. اما اکثر روش‌های موجود در این حوزه از جاسازی مستقیم در ضرایب DCT استفاده کرده اند. هدف اصلی روش پیشنهادی در این مقاله، پیشنهاد یک بستر جاسازی متفاوت در این حوزه است. در روش پیشنهادی جاسازی در مقدار اختلاف زوج ضرایب حاصل از تبدیل DCT انجام می‌شود. جاسازی به نحوی انجام می‌شود که گیرنده می‌تواند با محاسبه اختلاف مقدار زوج-های همسایه، داده را به صورت کامل استخراج کند. روش پیشنهادی یک روش تطبیقی محسوب می‌شود، زیرا تعداد بیت‏های قابل جاسازی در هر زوج ضریب متغیر و وابسته به مقدار اختلاف آن‌ها است. نتایج آزمایش‌های مختلف نشان می دهد روش پیشنهادی با حفظ کیفیت تصویر استگو در حد مطلوب و داشتن یک ظرفیت جاسازی معقول، احتمال کشف کمتری در برابر حملات پنهان شکنی موجود دارد.}, keywords_fa = {پنهان نگاری,پنهان شکنی,تصویر,تبدیل کسینوس گسسته}, url = {https://jscit.nit.ac.ir/article_104431.html}, eprint = {https://jscit.nit.ac.ir/article_104431_d17e6ba6e94e795cc044f034a200fe8c.pdf} } @article { author = {Hajizadeh Tahan, Marzieh and Ghasemzadeh, Mohammad and Latif, Ali Mohammad}, title = {A non-dominated genetic algorithm for constructing balanced spanning tree}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {67-82}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {This research shows how we can find Balanced Spanning Trees, without the need to determine the relevant parameters, by using an evolutionary multi-objective algorithm. This problem belongs to the complexity class NP-complete; therefore, for big graphs, we cannot use exact algorithms, which often rely on exhaustive search. The existing approximate algorithms are all limited to obtaining the related parameter(s) and considering them separately during their computations; this usually leads to finding solution with lower quality than desired. On the other hand, the existing methods solve the problem of the balanced spanning tree as a single objective; which loss search space information and finding only one solution, while in real-world problems, decision-makers often need several solutions to make a better decision. Overcoming the above-mentioned shortcomings leads to finding a balanced spanning tree with better characteristics; which in turn, yields more benefits in relevant applications, such as communication networks and high-performance computing projects. In this research, in order to overcome the above challenge, the use of evolutionary multi-objective optimization via Non-dominated Sorting Genetic Algorithm - NSGA is recommended. The proposed solution uses two objective functions to simultaneously optimize the weight of the spanning tree and the shortest path. The first objective function attempts to minimize the distance between each vertex and the root of the tree. The second objective function is selected to minimize the weight of the obtained spanning tree. The proposed method was implemented and run in a Python environment by specialized functions, on a seven-core microcomputer. In order to evaluate the performance of the proposed algorithm, a set of random graphs by Erdos and Renyi approaches were used. The proposed algorithm was compared with the state of the art methods in the problem of finding the balanced spanning tree. Experimental results show that the proposed algorithm is often able to find better responses than the other algorithms compared. The experimental results show that the proposed algorithm was always able to find highly ranked Balanced Spanning Trees. Meanwhile, often the optimal solutions, which can only be obtained through exact and very costly algorithms, were found, with teeny computations.}, keywords = {Balanced Spanning Tree,Shortest Path Tree,Minimum Spanning Tree,Evolutionary Multi-Objective Problems}, title_fa = {الگوریتم ژنتیک با مرتب‌سازی نامغلوب برای ساخت درخت پوشای متوازن}, abstract_fa = {این پژوهش نشان می‌دهد که در رابطه با یافتن درخت پوشای متوازن، چگونه می‌توان با بهره‌گیری از الگوریتم چند هدفه تکاملی بدون نیاز به تعیین پارامترهای مربوطه به نمونه‌های با شرایط مطلوب دست یافت. این مسئله متعلق به کلاس پیچیدگی اِن-پی-کامل است، لذا برای ورودی‌های قدری بزرگ نمی‌توان از یک الگوریتم دقیق که غالباً متکی بر جستجوی همه‌جانبه است، بهره برد. الگوریتم‌های تقریبی موجود از یک سو همگی محدود به دریافت پارامتر مرتبط و لحاظ نمودن آن‌ها به‌طور مجزا می‌باشند؛ این امر موجب می‌شود که به‌طورمعمول پاسخ‌هایی باکیفیت پایین‌تر از مطلوب را بیابند. از سویی دیگر روش‌های موجود، مسئله درخت پوشای متوازن را به صورت تک هدفه حل می‌کند؛ که این امر منجر به از دست رفتن اطلاعات فضای جستجوی مسئله و یافتن تنها یک راه‌حل می‌گردد، درحالی‌که در مسائل واقعی، غالباً تصمیم‌گیرندگان برای تصمیم‌گیری بهتر، به چندین نمونه‌ی راه‌حل نیاز دارند. رفع کاستی‌های فوق می‌تواند منجر به یافتن درخت پوشای متوازن با ویژگی‌های برتری گردد، که به‌تبع آن منافع بیشتری در کاربردهای مربوطه مانند شبکه‌های ارتباطی و محاسبات با کارایی بالا، حاصل آید. در این پژوهش، برای غلبه بر چالش‌های فوق، به‌کارگیری بهینه‌سازی چندهدفه تکاملی از طریق الگوریتم ژنتیک با مرتب‌سازی نامغلوب توصیه می‌گردد. راه‌حل پیشنهادی از دو تابع هدف برای بهینه‌‌سازی هم‌زمان وزن درخت پوشا و کوتاه‌ترین مسیر بهره می‌برد. تابع هدف اول، سعی در حداقل‌سازی فاصله هر رأس تا ریشه درخت دارد، تابع هدف دوم به‌گونه‌ای انتخاب شده تا وزن درخت پوشای به‌دست‌آمده کمینه باشد. روش پیشنهادی توسط توابع تخصصی و در محیط پایتون، بر روی یک میکروکامپیوتر هفت هسته‌ای پیاده‌سازی و اجرا گردید. به‌منظور ارزیابی عملکرد الگوریتم پیشنهادی، مجموعه‌ای از گراف‌های تصادفی با رویکرد اردوس و رنی بکار گرفته شدند. الگوریتم پیشنهادی با روش‌های مطرح در حوزه یافتن درخت پوشای متوازن مورد مقایسه قرار گرفت. نتایج آزمایشی نشان می‌دهند که الگوریتم پیشنهادی، در غالب موارد قادر به یافتن پاسخ‌های بهتری نسبت به سایر الگوریتم‌های مورد مقایسه می‌باشد. ضمناً غالباً پاسخ‌های بهینه که به‌طورمعمول تنها از طریق الگوریتم‌های دقیق و بسیار پرهزینه قابل حصول‌اند، را با صرف توان محاسباتی ناچیزی می‌یابد.}, keywords_fa = {درخت پوشای متوازن,درخت کوتاه‌ترین مسیر,درخت پوشای کمینه,مسائل چندهدفه تکاملی}, url = {https://jscit.nit.ac.ir/article_104836.html}, eprint = {https://jscit.nit.ac.ir/article_104836_208f642ae1d907c810f355ff14d1ea7a.pdf} } @article { author = {ghanbari, yaghoob and Golzari, Shahram and Doraisamy, Shyamala}, title = {Answer Validation in Question-Answering System using Support Vector Machine}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {83-92}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {Question-answering system is a special type of information retrieval system. Considering a set of documents (such as Web or local set of documents), the system should answer the questions asked in the natural language form. Question-answering systems generally consist of question processing and analysis, keyword generation, information retrieval, answer extraction, and answer validation. In such systems, selecting proper answers for user question is an important task which influences performance of the whole system. An appropriate answer validation technique can increase the performance of the question-answering system. In this study, Support Vector Regression (SVR) is employed in order to perform answer validation. SVR eliminates the risk of getting stuck in local minima by reducing the operational risk. The proposed system is applied on some of the TREC and Wikipedia questions repositories. In order to evaluate performance of the proposed system, following measures are calculated: Mean Reciprocal Ranking (MRR) and F-measure. Based on experimental results, the proposed system achieved 81% MRR and 49.7% F-measure which shows higher performance than systems with no answer validation and also systems using neural network-based answer validation.}, keywords = {Question-answering system,Information Retrieval,answers validation,Support Vector Machine}, title_fa = {اعتبارسنجی پاسخ‌ها در سیستم پرسش و پاسخ با استفاده از رگرسیون ماشین بردار پشتیبان}, abstract_fa = {سیستم پرسش و پاسخ شکل خاصی از بازیابی اطلاعات است. با در نظر گرفتن مجموعه‌ای از اسناد (مانند شبکه جهانی وب یا یک مجموعه محلی) سیستم باید بتواند پاسخ پرسش‌های مطرح‌شده به زبان طبیعی را بازیابی نماید. سیستم‌های پرسش و پاسخ به‌صورت متداول از بخش های پردازش و تجزیه پرسش، تولید عبارت جست‌وجو، بازیابی اطلاعات، استخراج پاسخ‌ و رتبه‌بندی پاسخ‌ تشکیل‌شده است. یکی از علل کاهش کارایی سیستم های پرسش و پاسخ، پایین بودن دقت انتخاب پاسخ های مناسب به پرسش کاربران است. به وسیله ی اعتبارسنجی مناسب پاسخ ها می توان این مشکل را حل نموده و کارایی سیستم پرسش و پاسخ را ارتقا داد. در این پژوهش از رگرسیون ماشین بردار پشتیبان (SVR) برای اعتبار سنجی و رتبه بندی پاسخ ها استفاده‌شده است. الگوریتم رگرسیون ماشین بردار پشتیبان با کمینه نمودن ریسک عملیاتی، خطر افتادن در کمینه های محلی را بر طرف می کند. برای ارزیابی کارایی سیستم پیشنهادی از مجموعه پرسش های TREC و پرسش های ویکی پدیا استفاده گردیده است. در این پژوهش از معیارهای میانگین رتبه بندی معکوس و معیار F برای ارزیابی سیستم پیشنهادی استفاده گردیده است. بر اساس نتایج حاصل از آزمایش‌ها، مقادیر به دست آمده برای این معیارها توسط سیستم پیشنهادی به ترتیب 81% و 49.7% بوده است. سیستم پیشنهادی در مقایسه با سیستم بدون رتبه بندی پاسخ و سیستم مبتنی بر رتبه بندی پاسخ با شبکه عصبی از کارایی مناسب تری برخوردار است. همچنین سیستم پیشنهادی در مقایسه با پژوهش های پیشین دارای میانگین رتبه بندی معکوس بهتری می باشد.}, keywords_fa = {سیستم پرسش و پاسخ,بازیابی اطلاعات,اعتبار سنجی پاسخ,رگرسیون ماشین بردار پشتیبان (SVR)}, url = {https://jscit.nit.ac.ir/article_106779.html}, eprint = {https://jscit.nit.ac.ir/article_106779_58c4ac7a655af0389f5173ebd4cdc20a.pdf} } @article { author = {Nasiripour, Reza and Farsi, Hassan and Mohamadzadeh, Sajad}, title = {Saliency Detection in Eye Gaze Prediction by Using Deep Learning}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {93-108}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {Salient object detection attracted the attention of researchers in various fields, so that it is used in many applications of the visual machine, such as object detection and tracking. Most of the work in this area is based on bottom-top saliency models and use low-level features to extract the final saliency map that these works do not have a significant accuracy in salient object detection. On the other hand, top-down visual models are used for the specific applications. In this paper, a different method has been proposed to extract the salient object map that uses low-up and top-down attributes for extracting the salient and it is based on the learning process. The simultaneous selection of these features makes the proposed algorithm for various applications and increases the accuracy of the salient object detection. The learning process is performed by using the and Convolutional Neural Network (CNN) structure. After the decomposition of image to its super pixels, different features of image are extracted. Then, the extracted features are normalized to have zero mean and unit variance, and CNN is used to train the features. The accuracy of the proposed method is improved by using of the 8 salient and CNN. The performance of the proposed method has been compared to twenty method by applying four new databases including MSRA-100, ECSSD, MSRA-10K and Paskal-S. The proposed method provides better results compared to the other methods in respect to prediction of salient object.}, keywords = {Salient,low-up and top-down feature,super pixel,CNN}, title_fa = {شناسایی شی برجسته در پیش بینی تمرکز نگاه با استفاده از یادگیری عمیق}, abstract_fa = {شناسایی شی برجسته، توجه محققین در حوزه‌های مختلف را به خود جلب کرده‌است بگونه‌ای که در بسیاری از کاربردهای ماشین بینایی از جمله شناسایی و رهگیری شیء بکار گرفته می‌شود. بیشتر کارهای انجام شده در این حوزه مبتنی بر مدل‌های بصری پائین به بالا می‌باشند و از ویژگی‌های سطح پائین برای استخراج تصویر برجستگی نهایی استفاده می‌کنند که از دقت قابل توجهی در تشخیص شیء چشمگیر برخوردار نمی‌باشند. از طرفی مدل‌های بصری بالا به پائین برای کاربردهای خاصی مورد استفاده قرار می‌گیرند. در این مقاله روش متفاوتی برای استخراج تصویر برجستگی شیء ارائه شده است که از ویژگی‌های سطح پائین به بالا و بالا به پائین برای استخراج تصویر برجستگی استفاده می‌کند و مبتنی بر فرآیند یادگیری می‌باشد. انتخاب همزمان این ویژگی‌ها باعث بهبود الگوریتم پیشنهادی در کاربردهای مختلف می‌شود و باعث افزایش دقت شناسایی شیء چشمگیر می‌شود. فرآیند یادگیری با استفاده از شبکه عصبی کانولوشن انجام می‌گیرد. پس از اینکه تصویر به سوپرپیکسل-های آن تجزیه شد، ویژگی‌های متفاوتی از آن استخراج می‌گردد. سپس ویژگی‌های استخراج شده به میانگین صفر و واریانس واحد نرمالیزه شده و از الگوریتم شبکه عصبی کانولوشن به‌منظور آموزش دادن ویژگی‌ها استفاده می‌شود. دقت روش پیشنهادی با استفاده از 8 تصویر برجستگی و یادگیری عمیق بهبود داده شده است. روش پیشنهادی با بیش از 20 روش دیگر و در 4 پایگاه داده شناخته شده MSRA-1000، ECSSD، MSRA-10k و PASCAL-S مورد ارزیابی و مقایسه قرار گرفته شده است. نتایج حاکی از کارآیی روش پیشنهادی نسبت به سایر روش‌ها در زمینه پیش‌بینی شیء چشمگیر در تعیین تمرکز نگاه می‌باشد.}, keywords_fa = {تصویر برجستگی,ویژگی‌های سطح پائین به بالا و بالا به پائین,سوپرپیکسل,CNN}, url = {https://jscit.nit.ac.ir/article_110979.html}, eprint = {https://jscit.nit.ac.ir/article_110979_ad725dea2cf7f83de4495fa664f2cbe0.pdf} } @article { author = {Mollamohammad, Niloofar and Daneshpour, Negin}, title = {Proposing a process to integrate and identify repetitions to improve the quality of data}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {109-120}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {Recently, information in the workplace and decision has a major role. Due to the importance of deciding, it is also necessary to ensure data quality. Data quality can be improved by data cleaning methods. In this research, we propose a process for discovering duplications and contradictory types of records, integrating and identifying duplications to improve the quality of data. Our proposed process consists of different activities. These activities are coding records, clustering by expectation maximization algorithm, making token for records, integrate coding records methods and making token for records methods, and extracting association rules by Fp-growth Algorithm. The results of the tests show that the proposed process has averaged 96% recall, 99% precision, 95% accuracy and 95% f-score. The proposed method is compared with a duplication and error detection method. The results indicate an increase of 13% for recall, 1% for accuracy and 6% for f-score in the proposed process.}, keywords = {Data quality,Data quality factors,Data cleaning}, title_fa = {ارائه فرایندی جهت یکپارچه‌سازی و تشخیص تکرار برای بهبود کیفیت داده‌ها}, abstract_fa = {اطلاعات در محیط‌ های کاری امروزی و تصمیم گیری‌ ها نقشی اساسی دارند. با توجه به اهمیت تصمیم گیری، اطمینان از کیفیت داده‌ های موجود ضروری است. با استفاده از روش‌ های پاک‌سازی داده می‌توان کیفیت داده‌ ها را بهبود بخشید. در این مقاله فرایندی در جهت کشف انواع رکورد های تکراری و متناقض، یکپارچه‌سازی و تشخیص تکرار برای بهبود کیفیت داده‌ها ارائه می‌شود. فرایند پیشنهادی شامل بخش‌هایی ازجمله کد کردن داده‌ها و خوشه‌بندی با استفاده از الگوریتم امید ریاضی- بیشینه‌سازی، ساخت نشانه برای رکوردها، ادغام روش‌های کدکردن داده‌ها و ساخت نشانه و ایجاد قوانین انجمنی با استفاده از الگوریتم Fp-growth است. نتایج آزمایش‌ها نشان می دهد در فرایند پیشنهادی به‌طور متوسط معیار فراخوانی 96%، صحت 99%، دقت 95% و امتیاز- اف 95% شده است. روش پیشنهادی با یک روش شناسایی تکرار و خطا، مقایسه شده است که نتایج حاصل نشان‌دهنده‌ی افزایش 13% فراخوانی، 1% صحت و 6% امتیاز- اف است.}, keywords_fa = {کیفیت داده‌,عوامل کیفیت داده‌ها,پاک‌سازی داده‌ها}, url = {https://jscit.nit.ac.ir/article_107020.html}, eprint = {https://jscit.nit.ac.ir/article_107020_5cb9050b5d3b4e859caaa9314c3c8b96.pdf} } @article { author = {Delavar, Mahmoud Reza and Hosseinpour, Seyed Ali and Hasani Baferani, Hosein}, title = {Determination and Detection and of Heart Rate at the Heart's Electrical Signal for Telemedicine Applications}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {121-131}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {This research offers a novel approach for automatic heart rate detection using electrocardiogram(ECG) signal processing, which leads to be used in telemedicine applications. The electrocardiogram is a diagram of the electrical potential changes of the heart muscle that can be recorded at various points in the body. The recorded signals of the chest are widely used in telemedicine applications because of their ease of recording. The P, QRS, and T waves and also ST fragment are the main parts of this signal. The QRS wave represents the heart beat and has a special shape, which is different in each breast lead. This wave is made of three main points;Q, R, and S. The range of R and S points vary from one lead to another. This can facilitate the automatic determination of these points. Determining each of these points is as determining each of the heart beat bits. A number of studies have been undertaken in this context, most of which are based on digital signal processing and signal shape. One of the important methods in this field, is the use of wavelet coefficients. The previous research have often used the reported usual values for the domain, determined by QRS waveguide. Some new methods, that have used the artificial neural network, have their own complexity. The previous research have also used a variety of data, most of which are from the Physionet.org site databases(PTBDB). The purpose of this research, is to offer a new method for the simpler signal processing in accordance to the shape of the employed lead signal. The proposed algorithm has some general preprocessing parts including import, reset, noise reduction, points and threshold limit setting of the signal whose main processing includes intersection line formation, location accurate of QRS and heart rate determination. The algorithm was implemented for 93 signals from the PTB Diagnostic ECG Database of the Physionet.org site, which eventually yielded Positive Predictively (P+)and sensitivity (Se)values of100% and99.95% respectively. These values show that the offered algorithm has been more accurate, than those of the existing ones. Finally, the proposed algorithm is implemented on the Android.}, keywords = {ECG signal,Heart Rate,Telemedicine,QRS}, title_fa = {تعیین و تشخیص ضربان قلب در سیگنال الکتریکی قلب برای کاربردهای پزشکی از راه دور}, abstract_fa = {نوار قلب، تغییرات پتانسیل الکتریکی عضلات قلب را نشان می دهد. این سیگنال اطلاعات با ارزشی درباره وضعیت بیمار نظیر ضربان قلب را در اختیار پزشکان قرار می دهد. در سال‌های اخیر با توجه به پیشرفت فناوری های پزشکی از راه دور، تحلیل خودکار این سیگنال به منظور تعیین ضربان قلب موضوع تحقیقات زیادی بوده و الگوریتم های مختلفی برای این کار معرفی شده اند. این الگوریتم ها عموما پیچیدگی های زیادی داشته و کمتر متناسب با شکل و ظاهر سیگنال لید مورد استفاده بوده اند. هدف اصلی این پژوهش ارائه الگوریتمی جدید، آسان، با پیچیدگی محاسباتی کم و متناسب با ویژگی های ظاهری سیگنال استفاده‌شده، جهت تعیین ضربان قلب و استخراج پیک S در قطعه QRS، به منظور استفاده در کاربردهای پزشکی از راه دور است. این الگوریتم برای 93 سیگنال مختلف اشتقاق V2 پیاده سازی شده و خطای مثبت و منفی که نشان دهنده کارایی الگوریتم هستند، به ترتیب 100% و 95/99‌% بدست آمده اند. در نهایت الگوریتم ارائه شده در قالب نرم افزار کاربردی اندرویدی پیاده سازی شده است.}, keywords_fa = {سیگنال ECG,ضربان قلب,پزشکی از راه دور,QRS}, url = {https://jscit.nit.ac.ir/article_107703.html}, eprint = {https://jscit.nit.ac.ir/article_107703_a364273325888b3969609505ee2a24a1.pdf} } @article { author = {Mohammadi, Shahriar and Mousavi, MirReza}, title = {Investigating the Impact of Ensemble Machine Learning Methods on Spam Review Detection Based on Behavioral Features}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {132-147}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {One of the most influential links on the Internet is the feedback provided by consumers as an experience of using the product to the people who want to buy that product. Beneficiaries use this opportunity to transfer inaccurate experience in order to promote or demote the value of a particular service or product unjustly, and this is the cause of placing their reviews between spam reviews category. Therefore, identifying these reviews using machine learning techniques and ensemble learners has become a hot topic among researchers. The purpose of this study is to investigate the impact of using ensemble machine learning methods on identifying such reviews using behavioral features. Recent studies have shown that the ensemble methods used in this study in combination with text-based features in addition to imposing more computational expense are not able to improve the performance of the best base learners. In this study, in addition to identifying the best base and ensemble learners in using behavioral features, we seek to determine whether these features combination with ensemble learners can achieve greater accuracy or a significant change in model performance. For this purpose, seven base learners and four ensemble learners such as Bagging, Boosting, Random Forest and Extra Tree were used and the results were compared with the results of using text-based features. Our evaluations show that using the decision tree as a base learner, along with the method of boosting in unbalanced data set and bagging in balanced dataset, yields better results and we can achieve more tangible change in the performance of the best base algorithms by ensemble learners in using behavioral features over text-based.}, keywords = {Spam Reviews,Machine Learning,Ensemble Methods,Behavioral Features}, title_fa = {بررسی تأثیر استفاده از روش‌های یادگیری ماشین تجمعی در شناسایی نظر‌‌های هرز بر اساس ویژگی‌های رفتاری}, abstract_fa = {یکی از تأثیرگذارترین ارتباط‌ها در اینترنت، نظر‌‌هایی است که توسط افراد مصرف‌کننده یک محصول به‌عنوان تجربه استفاده، در اختیار افراد خواهان خرید محصول قرار می‌گیرد. استفاده سودجویان از این فرصت انتقال تجربه، به‌منظور ارتقا یا تنزل ارزش یک خدمت یا محصول خاص به‌ناحق، باعث قرارگیری نظر‌‌های آن‌ها در دسته نظر‌‌های هرز می‌شود. ازاین‌رو شناسایی این نظرها با استفاده از روش‌های یادگیری ماشین و یادگیرنده‌های تجمعی به مبحثی داغ در میان محققان تبدیل شده است. هدف این مطالعه بررسی تأثیر استفاده از روش‌های یادگیری ماشین تجمعی در شناسایی اینگونه نظرها با استفاده از ویژگی‌های رفتاری است. بررسی‌های اخیر نشان داده است که روش‌های تجمعی مورد استفاده در این مطالعه در ادغام با ویژگی‌های متنی علاوه بر تحمیل بار محاسباتی بیشتر قادر به ارتقای عملکرد بهترین الگوریتم‌‌های پایه نیستند. در این مطالعه علاوه‌بر شناسایی بهترین یادگیرنده‌های پایه و تجمعی در استفاده از ویژگی‌های رفتاری به‌دنبال آن هستیم که آیا می‌توان با استفاده از این ویژگی‌ها و یادگیرنده‌های تجمعی به دقتی بیشتر و یا تغییر محسوسی در عملکرد مدل دست یابیم. بدین منظور از هفت یادگیرنده پایه و چهار یادگیرنده تجمعی دسته‌بندی، تقویت‌سازی، جنگل تصادفی و درخت اضافی استفاده شد و نتایج حاصل با نتایج استفاده از ویژگی‌های متنی مورد مقایسه قرار گرفت. ارزیابی‌ها نشان‌دهنده عملکرد بهتر یادگیرنده پایه درخت تصمیم به‌همراه روش تجمعی تقویت‌سازی در حالت استفاده از مجموعه‌داده نامتوازن و روش تجمعی دسته‌بندی در استفاده از مجموعه‌داده متوازن و هم‌چنین تغییر محسوس‌تر عملکرد بهترین الگوریتم‌ پایه، توسط یادگیرنده‌های تجمعی، در استفاده از ویژگی‌های رفتاری نسبت به متنی است.}, keywords_fa = {نظر‌‌های هرز,یادگیری ماشین,روش‌های تجمعی,ویژگی‌های رفتاری}, url = {https://jscit.nit.ac.ir/article_107647.html}, eprint = {https://jscit.nit.ac.ir/article_107647_bc401cb4aff47a5cda40f4f9631a3331.pdf} } @article { author = {Anari, Zohreh and Hatamlou, Abdolreza and Masdari, Mohammad}, title = {Learning Membership Functions for Mining Fuzzy Association Rules Using Learning Automata}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {148-162}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {The Transactions in web datasets often consist of quantitative data, suggesting that the fuzzy set theory can be used to represent such data. The time duration of web pages browsed by users is one type of data saved on log files, which can be used as an important factor to analyze the browsing behavior of users. In all existing researches for mining fuzzy association rules in web usage data the number and parameters of membership functions considered for the time parameter are assumed to be constant across all web pages. However, the number and parameters of the membership functions used for each web page are different from other web pages. So to address this challenge, in this paper a reinforcement based optimization approach based on learning automata(LA) called LA-OMF is proposed to automatically extract both the number and parameters of trapezoidal membership functions for fuzzy association rules in web data. Also, a new heuristic was proposed to increase the convergence speed of the proposed method and eliminate inappropriate membership functions. The performance of the proposed approach was evaluated and the results were compared with the results obtained using the fuzzy web mining approach on a real dataset. Experiments on datasets with different sizes confirmed that the proposed LA-OMF by extracting the optimized membership functions increased the average efficiency of the objective function and the fuzzy support compared to the uniform membership functions by 39% and 61%, respectively.}, keywords = {Web Usage Mining,Learning Automata,Fuzzy set,membership function,Fuzzy association rule}, title_fa = {یاگیری توابع عضویت برای کاوش قوانین انجمنی فازی با استفاده از اتوماتای یادگیر}, abstract_fa = {تراکنش ها در مجموعه داده‌های وب اغلب از داده های کمّی تشکیل شده‌‌، که نشان می‌دهد تئوری مجموعه‌های فازی می‌تواند برای نشان دادن چنین داده هایی استفاده شود. مدت زمان صفحات وب که توسط کاربران ملاقات می‌شود‌، یکی از انوع داده ذخیره شده درلاگ های وب است که می-تواند به عنوان یک عامل مهم برای تحلیل رفتار حرکتی کاربران استفاده شود. هرچند، در تمامی کارهای انجام شده برای کاوش قوانین انجمنی از داده های مورد استفاده از وب تعداد و پارامترهای توابع عضویت در نظر گرفته شده برای پارامتر زمان، در تمام صفحات وب ثابت فرض شده است. این در حالی است که تعداد و پارامترهای توابع عضویت مورد استفاده برای هر صفحه وب با سایر صفحات وب متفاوت است. بنابراین برای حل این چالش در این مقاله‌، یک روش بهینه سازی یادگیری تقویتی مبتنی بر اتوماتای یادگیر با نام LA-OMF برای استخراج خودکار هر دوی تعداد و پارامترهای توابع عضویت ذوزنقه‌ای برای استخراج قوانین انجمنی فازی از داده‌های وب ارائه شده است. همچنین برای افزایش سرعت همگرایی روش پیشنهادی و حذف توابع عضویت نامناسب هیوریستیک جدیدی ارائه شد. کارایی روش پیشنهادی مورد ارزیابی قرار گرفت و نتایج با نتایج به دست آمده با استفاده از روش کاوش فازی وب در یک مجموعه داده واقعی مقایسه شد. آزمایشات بر روی مجموعه داده با اندازه های مختلف تأیید کرد که روش پیشنهادی LA-OMFبا استخراج توابع عضویت بهینه میانگین کارایی تابع هدف و پشتیبان فازی را در مقایسه با توابع عضویت یکنواخت به ترتیب 39% و 61% افزایش داده است.}, keywords_fa = {کاوش استفاده از وب,اتوماتای یادگیر,مجموعه فازی,توابع عضویت,قوانین انجمنی فازی}, url = {https://jscit.nit.ac.ir/article_107866.html}, eprint = {https://jscit.nit.ac.ir/article_107866_e7dd3e9dde060f5f2b9d0ce1655db087.pdf} } @article { author = {Sabbagh Gol, Reyhaneh and Daneshpour, Negin}, title = {An Improved View Selection Algorithm in Data Warehouses by Shuffled Frog Leaping Algorithm in 0/1 Knapsack Problem}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {163-179}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {A data warehouse is designed for responding analytical queries. The data in data warehouse are historical. The response time in data warehouse is long. So the response time problem should be solved. Using views is a solution for the problem. But it is impossible to materialize all views. On the other hand, materializing optimal views is a NP-Complete problem. Therefore view selection algorithms were introduced. Some of these algorithms materialize frequent queries. Previously queries have important queries and will be used in the future probably. This paper, proposes an algorithm for materializing proper views. The algorithm finds proper views by using previous queries and materializes them. The views are able to respond many future queries. This paper uses shuffled frog leaping algorithm to find proper views in 0/1 knapsack problem. So the proposed algorithm improves the response time of the previous algorithms.}, keywords = {Data Warehouse,optimal queries,view selection,0/1 knapsack}, title_fa = {بهبود الگوریتم انتخاب دید در پایگاه داده ‏ی تحلیلی با استفاده از الگوریتم جهش ترکیبی قورباغه در حل مساله کوله‏ پشتی صفرویک}, abstract_fa = {پایگاه داده‏ی تحلیلی، برای پاسخ‏گویی به پرس‏وجوهای تحلیلی طراحی می‏شود. داده‏های موجود در پایگاه داده‏ی تحلیلی، داده‏های تاریخی هستند. در پایگاه داده‏ی تحلیلی، زمان پاسخ‏گویی به پرس‏وجوهای تحلیلی، زمان زیادی است. بنابراین باید به دنبال روشی برای کاهش این مدت زمان بود. استفاده از دید، راه‏حل مناسبی برای کاهش زمان پاسخ‏گویی است. اما امکان ذخیره‏سازی تمام دیدهای ممکن وجود ندارد. از طرفی دیگر، ذخیره‏سازی دیدهای بهینه، یک مسئله‏ی NP-Complete می‏باشد. به این منظور، الگوریتم‏های انتخاب دید زیادی ارائه شده‏اند که از جمله‏ی این الگوریتم‏ها می‏توان به الگوریتم‏هایی اشاره کرد که دیدهای پرکاربرد را ذخیره می‏کنند. پرس‏وجوهایی که قبلا مورد استفاده‏ی پایگاه داده‏ی تحلیلی بوده‏اند، حاوی اطلاعات مهمی هستند که به احتمال زیاد در آینده نیز مورد استفاده خواهند بود. این مقاله، الگوریتمی برای ذخیره‏سازی دیدهای مناسب ارائه می‏دهد. این الگوریتم با استفاده از پرس‏وجوهای قبلی، دیدهای مناسب را یافته و آن‏ها را ذخیره‏‏ می‏کند. این دیدها توانایی پاسخ‏گویی به بسیاری از پرس‏وجوهایی که در آینده اتفاق خواهند ‏افتاد را دارند. این مقاله از الگوریتم جهش ترکیبی قورباغه  برای یافتن دیدهای بهینه در حل کوله‏پشتی صفرویک  استفاده ‏کرده ‏است که باعث بهبود روش‏های قبلی و کاهش زمان پاسخ به پرس‏وجوها شده‏است.}, keywords_fa = {پایگاه داده‏ی تحلیلی,پرس‏و‏جو‏های بهینه,ذخیره‏سازی دید,کوله‏پشتی صفرویک}, url = {https://jscit.nit.ac.ir/article_110806.html}, eprint = {https://jscit.nit.ac.ir/article_110806_f8a4a6c931baee8d4fe466783d5ab1e8.pdf} } @article { author = {Yoosefi Nejad, Mohsen and Mosleh, Mohammad and Rasouli Heikalabad, Saeed}, title = {Proposing two quantum audio watermarking schemes with improved robustness}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {180-195}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {Abstract- As an important security technology, recently quantum watermarking attracted wide research attention. Up to now, several methods have been proposed for quantum image watermarking, while there are a few achievements in the domain of quantum audio watermarking. This study presents two quantum audio watermarking schemes, with the aim of improving robustness. The first scheme embeds a watermark qubit into odd number of qubits of host audio, and employs majority-voting policy to extract the correct watermark qubit. In the second proposed scheme, k audio samples are grouped as a frame, which holds one qubit of watermark. In order to embed a qubit into a frame, parameter r, which is sum of frame amplitudes, is calculated in module 2k. The amplitudes are then adjusted to set parameter r in the median of two ranges, [0, 2k-1-1], and [2k-1, 2k-1] to represent embedding ├ |0⟩ or ├ |1⟩. The parameter r is recalculated in extracting phase, and based on belonging to a range, the extracted qubit is determined. For every procedure of the proposed schemes, the quantum circuit and complexity analysis are presented. The circuit complexity of both proposed schemes is linear. Experimental results show that the proposed schemes offer promising trade-offs in terms of robustness and transparency.}, keywords = {Quantum Audio Watermarking,Signal processing,Quantum Signal Processing,quantum computation,robustness,Time Domain}, title_fa = {ارائه دو رویکرد نهان نگاری صوتی کوانتومی بهبودیافته از نظر مقاومت}, abstract_fa = {چکیده- اخیرا نهان‌نگاری کوانتومی به عنوان یک مبحث امنیتی مهم توجه پژوهشگران زیادی را به خود جلب کرده است. تاکنون روش‌های زیادی برای نهان‌نگاری تصاویر کوانتومی پیشنهاد شده است ولی دستاوردهای انگشت‌شماری در حوزه نهان‌نگاری صوت کوانتومی به چشم می‌خورد. این مقاله دو رویکرد نهان‌نگاری صوت کوانتومی را با هدف بهبود مقاومت ارائه می‌دهد. رویکرد اول یک کیوبیت نهان‌نگاره را در تعداد فردی از نمونه‌های صوتی سیگنال میزبان جایگذاری کرده و با استفاده از روش رای گیری اکثریت، کیوبیت صحیح را استخراج می‌کند. در رویکرد پیشنهادی دوم، تعداد k نمونه صوتی از سیگنال میزبان به عنوان یک قاب، گروه بندی می‌شوند که حامل یک کیوبیت از نهان‌نگاره خواهند شد. به منظور جایگذاری یک کیوبیت، مجموع دامنه نمونه‌های صوت در پیمانه 2k محاسبه می‌شود (r)، و با افزایش یا کاهش جزئی مقدار دامنه نمونه‌ها، مقدار r در مرکز یکی از دسته‌های [0,2k-1-1] و [2k-1,2k-1] به ترتیب برای درج کیوبیت ├ |0⟩ یا ├ |1⟩ تنظیم می‌گردد. در زمان استخراج، مقدار r مجددا محاسبه شده و با توجه به اینکه در کدام یک از دسته‌های مذکور قرار می‌گیرد، کیوبیت استخراج شده مشخص خواهد شد. برای هرکدام از رویکرد‌های پیشنهادی، مدار کوانتومی و تحلیل پیچیدگی ارائه شده است. پیچیدگی مداری هر دو رویکرد ارائه شده خطی است. نتایج شبیه سازی نشان می‌دهد که رویکرد‌های ارائه شده مصالحه قابل قبولی بین مقاومت، شفافیت و ظرفیت ارائه می‌دهند.}, keywords_fa = {نهان نگاری صوت کوانتومی,پردازش سیگنال کوانتومی,محاسبات کوانتومی,مقاوم پذیری,حوزه زمان}, url = {https://jscit.nit.ac.ir/article_107813.html}, eprint = {https://jscit.nit.ac.ir/article_107813_fc2c5a7d105b2c82591603fa3c78f764.pdf} } @article { author = {Reza, Akram and Rafie, Mahnaz}, title = {Performance Improvement in Multiprocessors Using Three Steps of Non Contiguous Migration for Online Mapping}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {196-205}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {In this paper, we have presented different concepts and parameters in the online mapping for different jobs in the network on chips. Thus, three essential steps are considered which are finding the appropriate size of sub-mesh, finding a sub-mesh place in integrating the mesh for online task allocation and finding the main place in sub-mesh for online task mapping. For this purpose, efficient previous models to select the dimensions of the sub-mesh, the processor migration methods based on the two-row boundary, limited left-right compaction, limited top-down compaction, online dynamic compaction-four corner (ODC-FC) and hybrid migrations for mesh topology are compared with the proposed algorithm to check the comparative performance. Also, the impact of different performance parameters which are average job execution time and average system utilization will be compared against the previous mechanisms to achieve the appropriate configuration of the network on chips. It is worth noting that in this article, 7 algorithms, which have achieved better performance, have been selected among the 29 ones. We have demonstrated that using hybrid migration strategies enable us to limit the number of processors migrations. Consequently, significant improvements have been achieved in the average job execution time (%36 ~ %38.1), and the average system utilization (%38.2~%48.5).}, keywords = {Allocation,fragmentation,migration,Multiprocessors,Network on Chip}, title_fa = {بهبود کارایی در چندپردازنده ای ها با استفاده از سه مرحله مهاجرت ناپیوسته جهت نگاشت برخط}, abstract_fa = {در این مقاله مفاهیم و پارامترهای مختلف در نگاشت برخط برای کارهای متعدد در شبکه روی تراشه بررسی شده است. در این راستا سه گام اساسی پیدا نمودن اندازه زیرتوری مناسب، محل زیرتوری در همبندی توری جهت تخصیص و مکان اصلی در زیرتوری جهت نگاشت بر خط کار در نظر گرفته شده است. لذا الگوریتم های مؤثر پیشین جهت انتخاب ابعاد زیرتوری، الگوریتم های مهاجرت پردازنده مبتنی بر دو مرز سطری، فشرده سازی بالا پایین محدود شده، فشرده سازی چهارگوشه برخط پویا (ODC-FC) و روش های مهاجرت ترکیبی برای همبندی توری با الگوریتم پیشنهادی جهت بررسی کارایی مقایسه شده است. در این راستا، تأثیر پارامترهای کارآیی میانگین زمان اجرای کار و میانگین بهره وری سیستم با الگوریتم های پیشین جهت دستیابی به پیکربندی مناسب در شبکه های روی تراشه بررسی شده اند. در این مقاله بیست و نه الگوریتم مختلف پیاده سازی شده و از بین آن ها هفت الگوریتم که عملکرد بهتری نسبت به سایرین دارا هستند انتخاب شده است. در واقع، با استفاده از روش های مهاجرت تلفیقی کارا توانستیم تعداد مهاجرت های پردازنده ها را محدود نماییم و در نتیجه میانگین زمان اجرای کار بین 36% تا 38.1% و میانگین بهره وری سیستم بین 38.2% تا 48.5% بهبود یافته است.}, keywords_fa = {تخصیص,تکه تکه شدن,چند پردازنده ای ها,شبکه روی تراشه,مهاجرت}, url = {https://jscit.nit.ac.ir/article_110808.html}, eprint = {https://jscit.nit.ac.ir/article_110808_b1b98ad41a63959c94dfc7cc06004390.pdf} } @article { author = {Arabnezhad, Rana and Babaie, Shahram}, title = {A routing algorithm based on movement direction and position of vehicles for vehicular Ad hoc networks}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {206-213}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {The special features of Vehicular Ad hoc Networks (VANET) such as dynamic topology and limited vehicle radius, as well as the wireless transmissions and presence of various obstacles such as buildings and trees, highlight the need for Road Side Unit (RSU) equipment. Due to the lack of sustainable communication between the vehicles, the position-based routing algorithms are an appropriate option for these networks. In this paper, a geographic routing algorithm is proposed that considers various parameters such as distance, packet priority, vehicle movement direction, and vehicle density to decrease the end-to-end delay and reduce the packet loss in VANET networks. The conducted simulations in the THE ONE tool have validated the effectiveness of the proposed approach in terms of packet delivery rate, average end-to-end delay, and hop count in comparison to RAGR, CMGR, and SDR algorithms. According to the simulation results, the packet delivery ratio of the proposed approach has improved by 26% and 23% with 200 and 300 vehicles, respectively. Moreover, the proposed approach provides an enhancement of 82% and 65% in end-to-end delay, as well as 14% and 20% in hop count with 200 and 300 vehicles, respectively.}, keywords = {Vehicular Ad hoc networks,Geographic Routing,Quality of Service (QoS)}, title_fa = {ارائه یک الگوریتم مسیریابی مبتنی بر جهت حرکت و موقعیت خودروها برای شبکه‌های موردی بین‌خود‌رویی}, abstract_fa = {چکیده- ویژگی‌های خاص شبکه‌های موردی بین‌خود‌رو‌یی مانند توپولوژی پویا و محدود بودن برد رادیویی خودروها همچنین بی‌سیم بودن محیط انتقال بین خود‌رو‌ها و وجود موانع مختلف مانند ساختمان‌ها و درختان نیاز به تجهیزات کنار جاده‌ایی را در مسیر‌یابی شبکه‌های موردی بین‌خودرویی مطرح کرده است. با توجه به عدم وجود ارتباط‌های پایدار در شبکه‌های موردی بین‌خودرویی، الگوریتم‌های مسیریابی مبتنی بر موقعیت گزینه مناسبی برای این شبکه‌ها می‌باشند. لذا در این مقاله یک رویکرد مسیر‌یابی مبتنی بر موقعیت برای شبکه‌های موردی بین‌خود‌رو‌یی ارائه می‌شود که برای مسیر‌یابی، پارامتر‌های متعددی مانند فاصله، اولویت‌بندی بسته‌ها، جهت حرکت خود‌رو‌ها و تراکم خودروهای شبکه را در نظر می‌گیرد تا قادر باشد تأخیر انتها به انتها و تا حد امکان گم شدن بسته‌ها را کاهش دهد. برای ارزیابی کارایی رویکرد پیشنهادی از شبیه‌ساز THE ONE استفاده شده است و عملکرد رویکرد پیشنهادی با الگوریتم‌های RAGR، CMGR، SDR مورد مقایسه قرار‌گرفته است. نتایج شبیه‌سازی‌ها نشان می‌دهند که بطور متوسط نرخ تحویل بسته رویکرد پیشنهادی 26% با حضور 200 خودرو و 23% با حضور 300 خودرو، تأخیر انتها به انتها 82 % با حضور 200 خودرو و 65 % با حضور 300 خودرو و تعداد گام‌ها 14 % با حضور 200 خودرو و 20 % با حضور 300 خودرو نسبت به پروتکل‌های مورد مقایسه بهبود داشته است.}, keywords_fa = {شبکه‌های موردی بین‌خودرویی,مسیریابی مکانی,کیفیت سرویس خدمات}, url = {https://jscit.nit.ac.ir/article_110807.html}, eprint = {https://jscit.nit.ac.ir/article_110807_6d9dd599efa938f7afb1e9fee45f9641.pdf} } @article { author = {Jaderyan, Morteza and Khotanlou, Hassan}, title = {A Hybrid Ensemble (Learning) of Knowledge-based Approaches for Content-based Filtering and Managing Information Resources}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {214-228}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {Knowledge-oriented content-based filtering techniques are among the most effective ways to search, filter, and manage information resources. In this paper, a novel filtering framework for (textual) information resource management purposes is introduced. The proposed method uses the collective knowledge of ontology and structured knowledge bases for developing semantic similarity methods. The semantic similarity methods are used to filter and classify documents in accordance with user preferences. Also, the knowledge-based semantic similarity methods are integrated in a “Mixture of Experts” model so that information resources and documents are filtered and managed based on the collective knowledge of these methods (experts). The integration of knowledge-based methods in the learning "Mixture of Experts" model is a novel idea and one of the main contribution of this paper. The evaluation results suggest that the integration of knowledge-based semantic similarity measures in "Mixture of Experts" model improves system performance and leads to the accurate classification of documents.}, keywords = {Information filtering and management,content classifier,Semantic Similarity,ontology,Ensemble Learning}, title_fa = {چارچوب ترکیبی (یادگیری-دانش‌محور) برای فیلتر محتوایی اطلاعات و مدیریت منابع اطلاعاتی}, abstract_fa = {روش‌های فیلتر محتوایی مبتنی بر دانش، روش‌های مؤثری برای جستجو، فیلتر کردن و مدیریت اطلاعات هستند. در این مقاله، یک چارچوب بدیع فیلتر و مدیریت منابع اطلاعاتی متنی معرفی می‌شود. روش پیشنهادی از دانش جمعی/گروهی مدل شده در آنتولوژی و پایگاه‌های دانش ساخت‌یافته جهت توسعه روش‌های محاسبه معنایی شباهت استفاده می‌کند. از روش‌های محاسبه معنایی شباهت توسعه داده شده برای فیلتر و دسته‌بندی کردن اسنادی استفاده می‌شود که حاوی اطلاعات متنی منطبق با ترجیحات کاربری هستند. همچنین، روش‌های توسعه داده شده در یک مدل «ترکیب خبرگان» با یکدیگر یکپارچه می‌شوند تا تصمیمات مرتبط با فیلتر و مدیریت منابع اطلاعاتی، از طریق اجتماع دانش خبره‌ها اتخاذ گردد. یکپارچه‌سازی روش‌های مبتنی بر دانش در مدل یادگیری ماشین «ترکیب خبرگان» ایده بدیع پیشنهادی در این مقاله است. نتایج ارزیابی نشان می‌دهد اجماع خبرگی روش‌های مبتنی بر دانش در مدل یادگیری گروهی «ترکیب خبرگان» عملکرد سیستم را ارتقاء می‌بخشد و منجر به دسته‌بندی دقیق اسناد متنی می‌شود.}, keywords_fa = {فیلتر و مدیریت اطلاعات,دسته ‌بند محتوا,شباهت معنایی,آنتولوژی,یادگیری ترکیبی}, url = {https://jscit.nit.ac.ir/article_111568.html}, eprint = {https://jscit.nit.ac.ir/article_111568_6ca26e6e701de717d072c316b4e6ee68.pdf} } @article { author = {Alaei, Mohammad and Yazdanpanah, Fahimeh}, title = {A ِDistributed Fuzzy-based Clustering Scheme to Optimize Energy Consumption and Data Transmission in Wireless Sensor Networks}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {229-243}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {Due to importance of energy conservation in wireless sensor networks, clustering algorithms and then cluster-based routing schemes are widely designed and utilized in this kind of network. To collect data in the base station, each sensor node sends the sensed data toward the cluster head via single or multi hops. Multi-hop data transmission in the clusters yields unbalanced load of the cluster members. The nodes around the cluster heads have to forward all the received packets from the cluster area; thus, the rate of energy consumption of cluster members is unbalanced. Accordingly, the lifetime of network is shortened by dying the high load nodes. In this paper, a distributed fuzzy-based clustering scheme is proposed to optimize energy consumption and data transmission of wireless sensor networks. In the proposed scheme, the remaining energy and degree of the nodes, transfer time of packets, the hops to the base station, average distance to neighboring nodes and residual energy of the neighboring nodes are considered as the criteria for cluster head selection. Each node calculates its probability of becoming cluster head via a distributed fuzzy inference system. The evaluations show DEEFCA compared to EEDCF, DFLC and EADEEG schemes, enhances network lifetime respectively by 12.8%, 21.5% and 25.8%, also, the amount of data transferred by the network is increased by 19.7%, 71% and 167%.}, keywords = {Wireless Sensor Networks,Clustering,Fuzzy logic,energy conservation,Data transfer}, title_fa = {یک روش خوشه بندی توزیع شده مبتنی بر منطق فازی برای بهینه‌سازی مصرف انرژی و انتقال داده در شبکه‌های حسگر بی‌سیم}, abstract_fa = {بنا به اهمیت بالای بهینه‌سازی مصرف انرژی در شبکه‌های حسگر بی‌سیم، الگوریتم‌های خوشه‌بندی و سپس مسیریابی خوشه‌ای به‌طور گسترده‌ای در این شبکه‌ها طراحی و استفاده می‌شوند. به منظور جمع‌آوری اطلاعات در ایستگاه پایه، هر گره حسگر، داده‌ها را به سر خوشه‌ای که به آن تعلق دارد با ارتباط یک یا چندگامی، انتقال می‌دهد. ارتباط چندگامی در خوشه، مسأله عدم تعادل بار و در نتیجه، مصرف انرژی زیاد گره‌های میانی را که نزدیک به سرخوشه می‌باشند، دربردارد. انرژی این گره‌ها سریع‌تر از گره‌های دورتر مصرف می‌شود و در نتیجه، این موضوع، موجب مرگ زودهنگام این گره‌ها و نیز کاهش طول عمر شبکه می‌گردد .در این مقاله، الگوریتمی توزیع‌شده برای خوشه‌بندی با هدف صرفه‌جویی در مصرف انرژی پیشنهاد می‌شود. در انتخاب سرخوشه‌ها در روش پیشنهادی که DEEFCA نامیده می‌شود، انرژی و درجه گره‌ مورد بررسی و انرژی باقی‌مانده گره‌های همسایه آن گره، فاصله بین سرخوشه‌های انتخابی، مدت زمان ارسال بسته و تعداد گام‌ها از گره مورد بررسی تا ایستگاه پایه و پراکندگی، به‌عنوان پارامترهای ورودی در نظر گرفته می‌شوند. در این الگوریتم، هر گره احتمال سرخوشه شدن خود را با استفاده از سیستم استنتاج فازی به شیوه‌ای توزیع‌شده محاسبه می‌کند. نتایج حاصل و ارزیابی‌ها نشان می‌دهند که DEEFCA در مقایسه با روش‌های مشابهEEDCF ،DFLC و EADEEG طول عمر شبکه (با در نظر گرفتن زمان مردن نیمی از گره‌ها) را به‌ترتیب، به‌میزان %12.8، %21.5 و %25.8 بهبود می‌بخشد و نیز، مقدار انتقال داده در شبکه به میزان %19.7، %71 و %167 افزایش می‌یابد.}, keywords_fa = {شبکه‌های حسگر بی‌سیم,خوشه‌بندی,منطق فازی,بهینه‌سازی مصرف انرژی,انتقال داده}, url = {https://jscit.nit.ac.ir/article_111419.html}, eprint = {https://jscit.nit.ac.ir/article_111419_290c7ba91e33e31d65f0822bf784cca6.pdf} } @article { author = {Bostan, Shekoofe and Zare Bidoki, Ali Mohammad}, title = {Provide an Optimal Model for Finding the Shortest Estimated Paths with Full Graph Coverage}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {244-255}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {Due to the increasing volume of information in social networks and the web, the need for efficient and fast algorithms for analyzing graph content is felt more than ever. One of the most important operations in a graph is to find the shortest path between two nodes, which can have different applications in routing and communication. Classic algorithms are very slow and computationally expensive, nearly impossible, so algorithms using approximation approaches are often used based on Landmark nodes. In this study, four landmark models are introduced. Using innovative methods, landmark nodes are selected for each nodes cluster, the shortest paths are pre-computed and the results are Hashing for direct access. Hence, a fast, efficient and precise result retrieval is possible when an online query is executed. The proposed methods cover the entire graph can reduce the error rate by 0.0016.}, keywords = {shortest path,Landmark,Approximate Error,Graph,Cluster}, title_fa = {ارائه مدلی بهینه جهت یافتن کوتاهترین مسیرهای تخمینی با پوشش کامل گراف}, abstract_fa = {با توجه به افزایش حجم اطلاعات در شبکه های اجتماعی و فضای وب، نیاز به الگوریتم های سریع برای آنالیز محتوای گراف بیش از پیش احساس می شود. یکی از مهمترین عملیات ها در گراف، یافتن کوتاهترین مسیر بین دو گره است که می تواند کاربردهای مختلفی در مسیریابی و ارتباطات داشته باشد. الگوریتم های کلاسیک برای حل این مسئله بسیار کند و استفاده از آن ها عملا غیرممکن است، بنابراین می توان ازالگوریتم های تخمینی استفاده کرد که اغلب مبتنی بر لندمارک هستند. در این مقاله چهار مدل تخمینی مبتنی بر لندمارک معرفی می گردد که با استفاده از روش های ابتکاری، گره های لندمارک به صورت برون خط انتخاب می گردند. همچنین از یک الگوریتم ابتکاری برای خوشه بندی گره ها استفاده شده و سپس کوتاهترین مسیرها در هر خوشه محاسبه می گردد، همچنین از داده ساختار هش استفاده می شود تا دسترسی به گره ها به صورت مستقیم صورت پذیرد و در زمان اجرای پرس وجو به صورت برخط، با سرعت و دقت بالا مورد استفاده قرار گیرد. روش های پیشنهادی با هدف پوشش کل گراف می تواند خطای قابل محاسبه را به 0/0016 کاهش دهد.}, keywords_fa = {کوتاهترین مسیر,لندمارک,خطای تقریبی,گراف,خوشه}, url = {https://jscit.nit.ac.ir/article_111569.html}, eprint = {https://jscit.nit.ac.ir/article_111569_a3ecfceda0172a207c1c3feecea512e6.pdf} } @article { author = {Gholami Taghizadeh, Reza and Gholami Taghizadeh, Ramin and Binesh Marvasti, Mohammad Reza and Asghari, Seyyed Amir}, title = {A New Flash Translation Layer with In-Block Update Capability}, journal = {Journal of Soft Computing and Information Technology}, volume = {9}, number = {3}, pages = {256-270}, year = {2020}, publisher = {Babol Noshirvani University of Technology}, issn = {2383-1006}, eissn = {2588-4913}, doi = {}, abstract = {The emergence of non-volatile NAND flash memory led to a new generation of Solid State Drives (SSD). One of the most important features of this type of drive is to update the data sectors out of place. In SSDs, a middleware called Flash Translation Layer (FTL) is used to hide such features from the operating system. The most important tasks consist of address translation, garbage collection, and wear leveling effect. Address translation has a great effect on the efficiency and read/write speed within SSDs. In this paper, we propose a new address translation scheme based on data compression, called In Block Update FTL. In the proposed scheme, the required memory of the address mapping table has been significantly reduced. Moreover, our extensive experimental results show that the proposed FTL scheme outperforms previous FLT schemes in the read and write operations under real workloads.}, keywords = {NAND Flash Memory,Solid State Drive,SSD,Flash Translation Layer,Address Translation Unit,Data Compression in SSD}, title_fa = {یک لایه ترجمه فلش جدید با قابلیت بروزرسانی درون بلوکی}, abstract_fa = {ظهور حافظه های پایدار نیمه هادی از نوع NAND فلش منجر به تولید نسل جدیدی از حافظه های جانبی به نام درایوهای حالت جامد (SSD) شد. یکی از مهمترین ویژگی های این نوع از درایوها به روزرسانی سکتورهای داده به صورت بیرون از مکان است. در SSDها برای مخفی کردن چنین ویژگی هایی از دید سیستم عامل، از یک بخش میان افزاری به نام لایه ترجمه فلش (FTL) استفاده می کنند. وظایف این بخش شامل ترجمه آدرس، زباله روبی و پخش فرسودگی است. در این مقاله یک طرح جدید برای لایه ترجمه فلش بر مبنای فشرده سازی داده ها به نام لایه ترجمه فلش با قابلیت به روزرسانی درون بلوکی (In Block Update FTL) پیشنهاد شده است. در این طرح پیشنهادی، حافظه مورد نیاز برای جدول نگاشت آدرس به میزان قابل توجهی کاهش یافته است. همچنین نتایج شبیه سازی با حجم‌کاری (Workload) واقعی نشان می دهد که سرعت خواندن و نوشتن روش مذکور نسبت به طرح مشابه قبلی به میزان قابل قبولی بهبود یافته است.}, keywords_fa = {حافظه ی NAND فلش,درایو حالت جامد,لایه ترجمه فلش,واحد ترجمه آدرس,فشرده سازی داده ها در SSD}, url = {https://jscit.nit.ac.ir/article_112861.html}, eprint = {https://jscit.nit.ac.ir/article_112861_47939436532274fccd4f90db0e90a25c.pdf} }