دانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Burst-aware Placement for Improving VM Consolidation in Cloud Environmentجایگذاری انفجارآگاه جهت بهبود فرایند تجمیع ماشین مجازی در محیط ابری114103881FAسمیه رحمانیدانشکده مهندسی کامپیوتر و فناوری اطلاعات، واحد قزوین، دانشگاه آزاد اسلامی، قزوین، ایران.وحید خواجه ونددانشکده مهندسی کامپیوتر و فناوری اطلاعات، واحد قزوین، دانشگاه آزاد اسلامی، قزوین، ایران.محسن ترابیاندانشکده علوم پایه، واحد تاکستان، دانشگاه آزاد اسلامی، تاکستان، ایران.Journal Article20190412In cloud computing, virtual machine placement is the decision making process of selecting a destination physical machine to host a virtual machine, according to virtual machine requirements and physical machine available resources. Virtual machine placement is one of the main sub-problems in the virtual machine consolidation process which faces different challenges. Burst-aware placement plays a key role in improving performance in cloud computing systems and hence, requires special attention and investigation. Therefore, in this study, we will develop a virtual machine consolidation process model by proposing an efficient method for virtual machine placement. The proposed method consists of two burstiness-aware algorithms for initial and reallocation of virtual machines. By presenting these algorithms, we aim to minimize the negative effects of workload bursts on the process of making decisions about the placement of virtual machines. We use the random and real dataset and CloudSim simulator to evaluate the performance of the proposed method. The results confirm the advantages of the method regarding performance compared to benchmark methods.در ابر محاسباتی جایگذاری ماشین مجازی فرایند تصمیم گیری انتخاب یک ماشین فیزیکی مناسب برای میزبانی یک ماشین مجازی با توجه به نیارهای ماشین مجازی و منابع موجود ماشین فیزیکی میباشد. جایگذاری ماشین مجازی یکی از زیرمسائل اصلی در فرایند تجمیع ماشین مجازی میباشد که با چالشهای متعددی مواجه میباشد. جایگذاری انفجارآگاه نقشی کلیدی در افزایش کارائی در سیستمهای محاسبات ابری داشته که نیاز به توجه و بررسی خاص داردبه همین دلیل ما در این مقاله با ارائه روشی موثر برای جایگذاری ماشینهای مجازی، مدل فرایند تجمیع ماشین مجازی را توسعه دادهایم. روش پیشنهادی شامل دو الگوریتم انفجارآگاه برای جایگذاری آغازین و مجدد ماشینهای مجازی میباشد. هدف الگوریتمهای پیشنهادی کاهش اثرات منفی انفجارهای بارکاری، در فرایند تصمیمگیری برای جایگذاری ماشینهای مجازی میباشد. ما از بارهای کاری واقعی و تصادفی و شبیهساز کلودسیم برای ارزیابی کارایی الگوریتمهای پیشنهادی استفاده کردهایم. نتایج آزمایشات برتری الگوریتمهای پیشنهادی را از نظر کارائی در مقایسه با الگوریتمهای پیشین تائید میکنند.https://jscit.nit.ac.ir/article_103881_d8252d745bdc7ce51371de8ebe079aa1.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Improvement of Genetic Algorithm Using a Fuzzy Control Combined with Coevolutionary Algorithmبهبود الگوریتم ژنتیک با استفاده از ترکیب منطق فازی و الگوریتم همتکاملی1526103662FAمحسن قلعه نوئیگروه کنترل، دانشکده مهندسی برق و رباتیک، دانشگاه صنعتی شاهرود، شاهرود، ایران0000-0001-8012-262XJournal Article20190728In order to achieve the best performance in genetic algorithm, proper determination of parameters is necessary. This paper addresses the intelligent determination of the crossover probability between two selected parents in each generation. Unlike most existing techniques that utilize the diversity characteristics of each generation to determine the crossover probability throughout the current generation, this paper defines some novel phenotype and genotype features, and develops a zero-order Takagi-Sugeno fuzzy controller to derive the proper crossover probability for each selected parent pair. As such, each pair has a unique probability parameter that results in the flexibility of the standard genetic algorithm depending on the region being searched and avoids premature convergence. In addition, in the proposed method, the consequent part of the fuzzy rules is not fixed but is generated through a coevolutionary process and simultaneously with the decision variables of the optimization problem. This enhances the efficiency of the proposed method. The simulation results on a set of optimization benchmarks show the performance of this method. Its effectiveness is also investigated by applying it to the complicated problem of terrain avoidance/terrain following fly.به منظور رسیدن به بهترین عملکرد در الگوریتم ژنتیک، تعیین مناسب پارامترها ضروری است. این مقاله بر تعیین هوشمند پارامتر احتمال بازترکیب بین هر دو والد انتخابی در هر نسل دلالت دارد. بر خلاف اغلب روشهای موجود که در آنها ویژگیهای پراکندگی هر نسل به منظور تعیین احتمال بازترکیب در کل نسل جاری استفاده میشود، این مقاله ویژگیهای فنوتیپ و ژنوتیپ جدیدی را برای هر زوج والد انتخابی در نسل جاری تعریف نموده و به کمک یک کنترلکننده فازی تاکاگی-سوگنوی مرتبه صفر، پارامتر احتمال بازترکیب تعیین میگردد. بدین ترتیب، هر زوج والد انتخابی در هر نسل دارای پارامتر بازترکیب منحصربفردی است که سبب انعطاف الگوریتم ژنتیک بسته به ناحیه مورد جستجو شده و از همگرایی زودرس الگوریتم ژنتیک جلوگیری مینماید. علاوه بر این، در روش پیشنهادی، جمله مربوط به بخش آنگاه در هر یک از قواعد فازی ثابت نبوده بلکه از طریق یک فرآیند تکاملی و همزمان با دیگر متغیرهای تصمیم تولید میشود. این عمل سبب افزایش بیشتر کارایی این روش میگردد. نتایج شبیهسازی بر روی مجموعهای از مسائل بهینهسازی استاندارد، عملکرد مطلوب این روش را نشان میدهد. همچنین، کارایی این روش با اعمال بر روی مسأله پیچیده پرواز تعقیب عوارض زمین بررسی میگردد.https://jscit.nit.ac.ir/article_103662_930df55cfe65c360d0314d2325d31e60.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Unsupervised domain adaptation via Bregman Divergence minimization and Adaptive Classifier learningتطبیق دامنه بدون نظارت با واگرایی برگمن و طبقهبند انطباقی2742104378FAمژده زندی فردانشکده مهندسی فناوری اطلاعات و کامپیوتر، دانشگاه صنعتی ارومیه، ارومیه، ایرانجعفر طهمورث نژاددانشکده مهندسی فناوری اطلاعات و کامپیوتر، دانشگاه صنعتی ارومیه، ارومیه، ایران.Journal Article20190522In pattern recognition and image classification, the common assumption that the training set (source domain) and test set (target domain) share the same distribution is often violated in real-world applications. In this case, traditional learning models may not generalize well on test sets. To tackle this problem, domain adaptation try to exploit training data with same distribution from other related source domain to generalize model for target domain.This paper presents a domain adaptation method which learns to adapt the data distribution of the source domain to that of the target domain where no labeled data of the target domain is available. Our method jointly learns a low dimensional representation space and an adaptive classifier. In fact, we try to find a representation space and an adaptive classifier on this representation space such that the distribution gap between the two domains is minimized and the risk of the adaptive classifier is also minimized.<br />In this paper, we propose a novel solution to tackle unsupervised domain adaptation for classification. In the unsupervised scenario where no labeled samples from the target domain is available, our model transforms data such that the source and target distributions become similar. To compare two distributions, our approaches make use of Bregman divergence. However, this does not suffice to generalize the model. Here, we propose to make better use model matching along with representation learning to tackle distribution mismatch across domains. The framework extends classification model by adding an adaptive classifier, which generalizes the target classifier far from the source data. Then this framework guarantees the target classifier minimizes the empirical risk in target domain and maximize manifold consistency with source data structure. Our empirical study on multiple open data sets validates that our proposed approach can consistently improve the classification accuracy compared to the basic machine learning and state-of-the-art transfer learning methods.در تشخیص الگو و طبقهبندی تصویر، فرض معمول بر این است که مجموعه آموزشی (دامنه منبع) و مجموعه تست (دامنه هدف) توزیع یکسانی را به اشتراک میگذارند که در اغلب کاربردهای دنیای واقعی نقض میشود. در اینصورت ممکن است مدلهای یادگیری سنتی بر روی مجموعههای آموزشی به درستی تعمیم داده نشوند. برای مقابله با این مشکل، یادگیری انتقالی و تطبیق دامنه، سعی میکنند با بهرهگیری از دادههای آموزشی با توزیع مشابه با دامنه منبع، مدل را برای دامنه هدف تعمیم دهند. در این مقاله، ما یک راه حل جدید برای رویارویی با تطبیق دامنه بدون نظارت برای طبقهبندی پیشنهاد میدهیم. در سناریو بدون نظارت که در آن هیچ نمونه برچسب دار از دامنه هدف موجود نیست، مدل ما دادهها را به گونهای تغییر میدهد که توزیع نمونههای دامنه منبع وهدف مشابه شوند. برای مقایسه دو توزیع، رویکرد ما از واگرایی برگمن استفاده میکند. با این وجود این رویکرد به تنهایی برای تعمیم مدل کافی نیست. در اینجا، ما یک مدل تطبیقپذیر برای یادگیری نمایش بهتر جهت مقابله با عدم توازن توزیع در دامنههای مختلف ارائه میدهیم. چارچوب مدل طبقه-بندی با اضافه کردن یک طبقهبند سازگار برای طبقهبندی دامنه هدف تعمیم مییابد. بدینترتیب، این چارچوب تضمین کننده طبقهبندی دامنه هدف بوده و خطر ریسک تجربی در دامنه هدف را به حداقل میرساند و سازگاری هندسی با ساختار دادههای منبع را به حداکثر میرساند. مطالعه تجربی ما بر روی مجموعه دادههای معتبر موید این است که رویکرد پیشنهادی ما می تواند به طور مداوم دقت طبقه-بندی را در مقایسه با الگوریتمهای یادگیری ماشین پایه و روشهای تطبیقدامنه بهبود دهد.https://jscit.nit.ac.ir/article_104378_a6a56bf10a8630d3d5b264319ba90a6e.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Precision Improvement of Intrusion Detection System using feature reduction based on Fuzzy Rough Set and Ensemble Classifiersبهبود دقت سامانه تشخیص نفوذ به کمک کاهشویژگی بر اساس مجموعه فازی ناهموار و ترکیب طبقهبندها4354105095FAسیدعادل نسبالحسینیدانشکده مهندسی کامپیوتر و فناوری اطلاعات، دانشگاه صنعتی سجاد، مشهد، ایران.جواد حمیدزادهدانشگاه صنعتی سجاد0000-0001-6493-0539Journal Article20190302In today's world, protecting data against intrusion through the Internet or network is necessary, and various tools have been proposed in this field. Intrusion Detection System has the task of identifying and detecting any unauthorized use of data by investigating network traffic. In these systems, many different methods, especially machine learning algorithms, is used. Various approaches have been proposed to improve these algorithms in the intrusion detection process. Some of these approaches include reducing false alarms, reducing dimensionality, reducing samples, ensemble methods, improving training and test dataset, applying multilevel methods, etc. Some of the ensemble methods proposed by researchers do not consider all aspects of the attack. Some other methods use accuracy metric, which in large and unbalanced data, this criterion makes the detection of low-number attacks difficult. One of the challenges in intrusion detection is the low precision of classifiers in identifying the type of network attacks. The purpose of this paper is to propose an intrusion detection system to improve the precision by using fuzzy rough set theory and weighted classifiers ensemble. In our proposed method, after reducing the features by the fuzzy rough set theory, the classifiers ensemble is used to improve the precision of attack detection. The precision of the proposed method in detecting intrusion behavior assaults was 98.93 on average. Also, on average, the detection rate of DoS, probe, R2L, U2R attacks and normal behavior was 96.85, 93.20, 91.31, 100% and 98.14 respectively. The results of the experiments show that the proposed method has more precision than other methods.در دنیای امروز، محافظت از دادهها در مقابل نفوذ از طریق اینترنت یا شبکه، امری ضروری است و ابزارهای مختلفی در این زمینه ارائه شدهاست. سامانه تشخیص نفوذ با بررسی ترافیک شبکه وظیفه شناسایی و تشخیص هرگونه استفاده غیرمجاز از دادهها را دارد. در این سامانهها از روشهای متعددی به ویژه الگوریتمهای یادگیری ماشین بهرهگیری میشود و رویکردهای مختلفی ازجمله کاهش هشدارهای غلط، کاهش ابعاد، کاهش نمونهها، روشهای ترکیبی، بهسازی دادگان آموزشی و آزمون، بهکارگیری روشهای چند سطحی و غیره بهمنظور بهبود این الگوریتمها در فرآیند تشخیص نفوذ ارائهشده است. برخی از روشهای ترکیبی ارائهشده توسط محققان کلیه جنبههای حمله را موردنظر قرار نمیدهد. بعضی از آن ها نیز از معیار صحت استفاده می کنند که این معیار در دادههای حجیم و نامتوازن باعث ضعف در تشخیص حملههای با تعداد نمونههای بسیار کم میگردد. یکی از چالشها در تشخیص نفوذ، دقت پایین طبقهبندها در شناسایی نوع حملات شبکه است. هدف از این تحقیق، پیشنهاد یک سامانه برای بهبود دقت در تشخیص نفوذ با استفاده از نظریه مجموعه فازی ناهموار و ترکیب وزندار طبقهبندها است. درروش پیشنهادی ما، پس از کاهش ویژگیها توسط نظریه مجموعه فازی ناهموار، از ترکیب طبقهبندها برای بهبود دقت در تشخیص حملات استفاده شده است. دقت روش پیشنهادی در شناسایی رفتار حمله به طور میانگین به 93/98 رسید و همچنین به طور میانگین میزان شناسایی رفتارعادی 14/98، حملههای منع سرویس 85/96 و حملههای پویش 20/93 حملههای دسترسی از راه دور 31/91 و حملههای کاربر به ریشه 100 به دست آمد. نتایج حاصل از انجام آزمایشها نشان دهنده برتری روش پیشنهادی نسبت به سایر روشهای موجود است.https://jscit.nit.ac.ir/article_105095_b08e184fb395a3cc4a4c61f63217e17f.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Adaptive Image Steganography in the Difference Value of Discrete Cosine Transform Coefficientsپنهان نگاری تطبیقی تصاویر در مقدار اختلاف ضرایب کسیسنوس گسسته5566104431FAوجیهه ثابتیگروه کامپیوتر، دانشکده فنی و مهندسی، دانشگاه الزهرا، تهران، ایران0000-0002-9985-9143سارا احمدیگروه کامپیوتر، دانشکده فنی و مهندسی، دانشگاه ملایر، ملایر، ایرانJournal Article20190521Steganography is the science and art to conceal the existence of communication, by hiding information in a digital media, the existence of communication is hidden from the enemy's point of view. steganography in the frequency transform coefficients and in particular the discrete cosine transform (DCT), due to its low detection capability, is one of the most common and active areas of steganography among researchers. But most of the methods in this area have used embedding directly in the DCT coefficients. The main purpose of the proposed method in this paper is to suggest a different embedding platform in this field. In the proposed embedding method, the DCT transformation coefficients are coupled and embedding is on the difference value of each couple. The embedding is done in such a way that the receiver can extract the data completely by calculating the difference in the value of the neighboring pairs. The proposed method is an adaptive method because the number of embedded bits in each pair of coefficients is dependent on the difference between them. The results of various experiments show that the proposed method, with the preservation of the quality of the stego image at a desirable level and having a reasonable embedding capacity, is less likely to be detected in relation to the existing steganalysis attacks.پنهان نگاری علم و هنر پنهان سازی وجود ارتباط است، بدین صورت که با پنهان کردن اطلاعات در یک رسانه دیجیتال وجود ارتباط از دید فرد متخاصم پنهان میماند. پنهان نگاری در ضرایب تبدیلات فرکانسی و به صورت خاص تبدیل کسینوس گسسته (DCT)، به دلیل قابلیت کشف کمتر، یکی از رایج ترین و فعال ترین حوزههای پنهان نگاری در میان محققان است. اما اکثر روشهای موجود در این حوزه از جاسازی مستقیم در ضرایب DCT استفاده کرده اند. هدف اصلی روش پیشنهادی در این مقاله، پیشنهاد یک بستر جاسازی متفاوت در این حوزه است. در روش پیشنهادی جاسازی در مقدار اختلاف زوج ضرایب حاصل از تبدیل DCT انجام میشود. جاسازی به نحوی انجام میشود که گیرنده میتواند با محاسبه اختلاف مقدار زوج-های همسایه، داده را به صورت کامل استخراج کند. روش پیشنهادی یک روش تطبیقی محسوب میشود، زیرا تعداد بیتهای قابل جاسازی در هر زوج ضریب متغیر و وابسته به مقدار اختلاف آنها است. نتایج آزمایشهای مختلف نشان می دهد روش پیشنهادی با حفظ کیفیت تصویر استگو در حد مطلوب و داشتن یک ظرفیت جاسازی معقول، احتمال کشف کمتری در برابر حملات پنهان شکنی موجود دارد.https://jscit.nit.ac.ir/article_104431_d17e6ba6e94e795cc044f034a200fe8c.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922A non-dominated genetic algorithm for constructing balanced spanning treeالگوریتم ژنتیک با مرتبسازی نامغلوب برای ساخت درخت پوشای متوازن6782104836FAمرضیه حاجیزاده طحاندانشکده مهندسی کامپیوتر، دانشگاه یزد، یزد، ایران.محمد قاسم زادهدانشکده مهندسی کامپیوتر، دانشگاه یزد، یزد، ایران.0000-0002-6805-4852علی محمد لطیفدانشکده مهندسی کامپیوتر، دانشگاه یزد، یزد، ایران.Journal Article20190722This research shows how we can find Balanced Spanning Trees, without the need to determine the relevant parameters, by using an evolutionary multi-objective algorithm. This problem belongs to the complexity class NP-complete; therefore, for big graphs, we cannot use exact algorithms, which often rely on exhaustive search. The existing approximate algorithms are all limited to obtaining the related parameter(s) and considering them separately during their computations; this usually leads to finding solution with lower quality than desired. On the other hand, the existing methods solve the problem of the balanced spanning tree as a single objective; which loss search space information and finding only one solution, while in real-world problems, decision-makers often need several solutions to make a better decision. Overcoming the above-mentioned shortcomings leads to finding a balanced spanning tree with better characteristics; which in turn, yields more benefits in relevant applications, such as communication networks and high-performance computing projects. In this research, in order to overcome the above challenge, the use of evolutionary multi-objective optimization via Non-dominated Sorting Genetic Algorithm - NSGA is recommended. The proposed solution uses two objective functions to simultaneously optimize the weight of the spanning tree and the shortest path. The first objective function attempts to minimize the distance between each vertex and the root of the tree. The second objective function is selected to minimize the weight of the obtained spanning tree. The proposed method was implemented and run in a Python environment by specialized functions, on a seven-core microcomputer. In order to evaluate the performance of the proposed algorithm, a set of random graphs by Erdos and Renyi approaches were used. The proposed algorithm was compared with the state of the art methods in the problem of finding the balanced spanning tree. Experimental results show that the proposed algorithm is often able to find better responses than the other algorithms compared. The experimental results show that the proposed algorithm was always able to find highly ranked Balanced Spanning Trees. Meanwhile, often the optimal solutions, which can only be obtained through exact and very costly algorithms, were found, with teeny computations.این پژوهش نشان میدهد که در رابطه با یافتن درخت پوشای متوازن، چگونه میتوان با بهرهگیری از الگوریتم چند هدفه تکاملی بدون نیاز به تعیین پارامترهای مربوطه به نمونههای با شرایط مطلوب دست یافت. این مسئله متعلق به کلاس پیچیدگی اِن-پی-کامل است، لذا برای ورودیهای قدری بزرگ نمیتوان از یک الگوریتم دقیق که غالباً متکی بر جستجوی همهجانبه است، بهره برد. الگوریتمهای تقریبی موجود از یک سو همگی محدود به دریافت پارامتر مرتبط و لحاظ نمودن آنها بهطور مجزا میباشند؛ این امر موجب میشود که بهطورمعمول پاسخهایی باکیفیت پایینتر از مطلوب را بیابند. از سویی دیگر روشهای موجود، مسئله درخت پوشای متوازن را به صورت تک هدفه حل میکند؛ که این امر منجر به از دست رفتن اطلاعات فضای جستجوی مسئله و یافتن تنها یک راهحل میگردد، درحالیکه در مسائل واقعی، غالباً تصمیمگیرندگان برای تصمیمگیری بهتر، به چندین نمونهی راهحل نیاز دارند. رفع کاستیهای فوق میتواند منجر به یافتن درخت پوشای متوازن با ویژگیهای برتری گردد، که بهتبع آن منافع بیشتری در کاربردهای مربوطه مانند شبکههای ارتباطی و محاسبات با کارایی بالا، حاصل آید. در این پژوهش، برای غلبه بر چالشهای فوق، بهکارگیری بهینهسازی چندهدفه تکاملی از طریق الگوریتم ژنتیک با مرتبسازی نامغلوب توصیه میگردد. راهحل پیشنهادی از دو تابع هدف برای بهینهسازی همزمان وزن درخت پوشا و کوتاهترین مسیر بهره میبرد. تابع هدف اول، سعی در حداقلسازی فاصله هر رأس تا ریشه درخت دارد، تابع هدف دوم بهگونهای انتخاب شده تا وزن درخت پوشای بهدستآمده کمینه باشد. روش پیشنهادی توسط توابع تخصصی و در محیط پایتون، بر روی یک میکروکامپیوتر هفت هستهای پیادهسازی و اجرا گردید. بهمنظور ارزیابی عملکرد الگوریتم پیشنهادی، مجموعهای از گرافهای تصادفی با رویکرد اردوس و رنی بکار گرفته شدند. الگوریتم پیشنهادی با روشهای مطرح در حوزه یافتن درخت پوشای متوازن مورد مقایسه قرار گرفت. نتایج آزمایشی نشان میدهند که الگوریتم پیشنهادی، در غالب موارد قادر به یافتن پاسخهای بهتری نسبت به سایر الگوریتمهای مورد مقایسه میباشد. ضمناً غالباً پاسخهای بهینه که بهطورمعمول تنها از طریق الگوریتمهای دقیق و بسیار پرهزینه قابل حصولاند، را با صرف توان محاسباتی ناچیزی مییابد.https://jscit.nit.ac.ir/article_104836_208f642ae1d907c810f355ff14d1ea7a.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Answer Validation in Question-Answering System using Support Vector Machineاعتبارسنجی پاسخها در سیستم پرسش و پاسخ با استفاده از رگرسیون ماشین بردار پشتیبان8392106779FAیعقوب قنبریگروه مهندسی برق و کامپیوتر، دانشکده فنی و مهندسی، دانشگاه هرمزگان، بندرعباس، ایران.شهرام گلزاریدانشگاه هرمزگانShyamala DoraisamyDepartment of Multimedia, Faculty of Computer Science and Information Technology, Universiti Putra Malaysia, Malaysia.Journal Article20170219Question-answering system is a special type of information retrieval system. Considering a set of documents (such as Web or local set of documents), the system should answer the questions asked in the natural language form. Question-answering systems generally consist of question processing and analysis, keyword generation, information retrieval, answer extraction, and answer validation. In such systems, selecting proper answers for user question is an important task which influences performance of the whole system. An appropriate answer validation technique can increase the performance of the question-answering system. In this study, Support Vector Regression (SVR) is employed in order to perform answer validation. SVR eliminates the risk of getting stuck in local minima by reducing the operational risk. The proposed system is applied on some of the TREC and Wikipedia questions repositories. In order to evaluate performance of the proposed system, following measures are calculated: Mean Reciprocal Ranking (MRR) and F-measure. Based on experimental results, the proposed system achieved 81% MRR and 49.7% F-measure which shows higher performance than systems with no answer validation and also systems using neural network-based answer validation.سیستم پرسش و پاسخ شکل خاصی از بازیابی اطلاعات است. با در نظر گرفتن مجموعهای از اسناد (مانند شبکه جهانی وب یا یک مجموعه محلی) سیستم باید بتواند پاسخ پرسشهای مطرحشده به زبان طبیعی را بازیابی نماید. سیستمهای پرسش و پاسخ بهصورت متداول از بخش های پردازش و تجزیه پرسش، تولید عبارت جستوجو، بازیابی اطلاعات، استخراج پاسخ و رتبهبندی پاسخ تشکیلشده است. یکی از علل کاهش کارایی سیستم های پرسش و پاسخ، پایین بودن دقت انتخاب پاسخ های مناسب به پرسش کاربران است. به وسیله ی اعتبارسنجی مناسب پاسخ ها می توان این مشکل را حل نموده و کارایی سیستم پرسش و پاسخ را ارتقا داد. در این پژوهش از رگرسیون ماشین بردار پشتیبان (SVR) برای اعتبار سنجی و رتبه بندی پاسخ ها استفادهشده است. الگوریتم رگرسیون ماشین بردار پشتیبان با کمینه نمودن ریسک عملیاتی، خطر افتادن در کمینه های محلی را بر طرف می کند. برای ارزیابی کارایی سیستم پیشنهادی از مجموعه پرسش های TREC و پرسش های ویکی پدیا استفاده گردیده است. در این پژوهش از معیارهای میانگین رتبه بندی معکوس و معیار F برای ارزیابی سیستم پیشنهادی استفاده گردیده است. بر اساس نتایج حاصل از آزمایشها، مقادیر به دست آمده برای این معیارها توسط سیستم پیشنهادی به ترتیب 81% و 49.7% بوده است. سیستم پیشنهادی در مقایسه با سیستم بدون رتبه بندی پاسخ و سیستم مبتنی بر رتبه بندی پاسخ با شبکه عصبی از کارایی مناسب تری برخوردار است. همچنین سیستم پیشنهادی در مقایسه با پژوهش های پیشین دارای میانگین رتبه بندی معکوس بهتری می باشد.https://jscit.nit.ac.ir/article_106779_58c4ac7a655af0389f5173ebd4cdc20a.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Saliency Detection in Eye Gaze Prediction by Using Deep Learningشناسایی شی برجسته در پیش بینی تمرکز نگاه با استفاده از یادگیری عمیق93108110979FAرضا نصیری پوردانشگاه بیرجندحسن فرسیدانشگاه بیرجندسجاد محمدزادهدانشگاه بیرجند0000-0002-9096-8626Journal Article20181103Salient object detection attracted the attention of researchers in various fields, so that it is used in many applications of the visual machine, such as object detection and tracking. Most of the work in this area is based on bottom-top saliency models and use low-level features to extract the final saliency map that these works do not have a significant accuracy in salient object detection. On the other hand, top-down visual models are used for the specific applications. In this paper, a different method has been proposed to extract the salient object map that uses low-up and top-down attributes for extracting the salient and it is based on the learning process. The simultaneous selection of these features makes the proposed algorithm for various applications and increases the accuracy of the salient object detection. The learning process is performed by using the and Convolutional Neural Network (CNN) structure. After the decomposition of image to its super pixels, different features of image are extracted. Then, the extracted features are normalized to have zero mean and unit variance, and CNN is used to train the features. The accuracy of the proposed method is improved by using of the 8 salient and CNN. The performance of the proposed method has been compared to twenty method by applying four new databases including MSRA-100, ECSSD, MSRA-10K and Paskal-S. The proposed method provides better results compared to the other methods in respect to prediction of salient object.شناسایی شی برجسته، توجه محققین در حوزههای مختلف را به خود جلب کردهاست بگونهای که در بسیاری از کاربردهای ماشین بینایی از جمله شناسایی و رهگیری شیء بکار گرفته میشود. بیشتر کارهای انجام شده در این حوزه مبتنی بر مدلهای بصری پائین به بالا میباشند و از ویژگیهای سطح پائین برای استخراج تصویر برجستگی نهایی استفاده میکنند که از دقت قابل توجهی در تشخیص شیء چشمگیر برخوردار نمیباشند. از طرفی مدلهای بصری بالا به پائین برای کاربردهای خاصی مورد استفاده قرار میگیرند. در این مقاله روش متفاوتی برای استخراج تصویر برجستگی شیء ارائه شده است که از ویژگیهای سطح پائین به بالا و بالا به پائین برای استخراج تصویر برجستگی استفاده میکند و مبتنی بر فرآیند یادگیری میباشد. انتخاب همزمان این ویژگیها باعث بهبود الگوریتم پیشنهادی در کاربردهای مختلف میشود و باعث افزایش دقت شناسایی شیء چشمگیر میشود. فرآیند یادگیری با استفاده از شبکه عصبی کانولوشن انجام میگیرد. پس از اینکه تصویر به سوپرپیکسل-های آن تجزیه شد، ویژگیهای متفاوتی از آن استخراج میگردد. سپس ویژگیهای استخراج شده به میانگین صفر و واریانس واحد نرمالیزه شده و از الگوریتم شبکه عصبی کانولوشن بهمنظور آموزش دادن ویژگیها استفاده میشود. دقت روش پیشنهادی با استفاده از 8 تصویر برجستگی و یادگیری عمیق بهبود داده شده است. روش پیشنهادی با بیش از 20 روش دیگر و در 4 پایگاه داده شناخته شده MSRA-1000، ECSSD، MSRA-10k و PASCAL-S مورد ارزیابی و مقایسه قرار گرفته شده است. نتایج حاکی از کارآیی روش پیشنهادی نسبت به سایر روشها در زمینه پیشبینی شیء چشمگیر در تعیین تمرکز نگاه میباشد.https://jscit.nit.ac.ir/article_110979_ad725dea2cf7f83de4495fa664f2cbe0.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Proposing a process to integrate and identify repetitions to improve the quality of dataارائه فرایندی جهت یکپارچهسازی و تشخیص تکرار برای بهبود کیفیت دادهها109120107020FAنیلوفر ملامحمددانشکده مهندسی برق و فناوری اطلاعات، واحد قزوین، دانشگاه آزاد اسلامی،قزوین، ایران.نگین دانشپوردانشکده مهندسی کامپیوتر، دانشگاه تربیت دبیر شهید رجایی، تهران، ایران.Journal Article20171021Recently, information in the workplace and decision has a major role. Due to the importance of deciding, it is also necessary to ensure data quality. Data quality can be improved by data cleaning methods. In this research, we propose a process for discovering duplications and contradictory types of records, integrating and identifying duplications to improve the quality of data. Our proposed process consists of different activities. These activities are coding records, clustering by expectation maximization algorithm, making token for records, integrate coding records methods and making token for records methods, and extracting association rules by Fp-growth Algorithm. The results of the tests show that the proposed process has averaged 96% recall, 99% precision, 95% accuracy and 95% f-score. The proposed method is compared with a duplication and error detection method. The results indicate an increase of 13% for recall, 1% for accuracy and 6% for f-score in the proposed process.اطلاعات در محیط های کاری امروزی و تصمیم گیری ها نقشی اساسی دارند. با توجه به اهمیت تصمیم گیری، اطمینان از کیفیت داده های موجود ضروری است. با استفاده از روش های پاکسازی داده میتوان کیفیت داده ها را بهبود بخشید. در این مقاله فرایندی در جهت کشف انواع رکورد های تکراری و متناقض، یکپارچهسازی و تشخیص تکرار برای بهبود کیفیت دادهها ارائه میشود. فرایند پیشنهادی شامل بخشهایی ازجمله کد کردن دادهها و خوشهبندی با استفاده از الگوریتم امید ریاضی- بیشینهسازی، ساخت نشانه برای رکوردها، ادغام روشهای کدکردن دادهها و ساخت نشانه و ایجاد قوانین انجمنی با استفاده از الگوریتم Fp-growth است. نتایج آزمایشها نشان می دهد در فرایند پیشنهادی بهطور متوسط معیار فراخوانی 96%، صحت 99%، دقت 95% و امتیاز- اف 95% شده است. روش پیشنهادی با یک روش شناسایی تکرار و خطا، مقایسه شده است که نتایج حاصل نشاندهندهی افزایش 13% فراخوانی، 1% صحت و 6% امتیاز- اف است.https://jscit.nit.ac.ir/article_107020_5cb9050b5d3b4e859caaa9314c3c8b96.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Determination and Detection and of Heart Rate at the Heart's Electrical Signal for Telemedicine Applicationsتعیین و تشخیص ضربان قلب در سیگنال الکتریکی قلب برای کاربردهای پزشکی از راه دور121131107703FAمحمودرضا دلاوردانشگاه تهران0000-0002-9654-6491سید علی حسین پوردانشگاه تهران/ پردیس دانشکده های فنی/ دانشکده نقشه برداری و اطلاعات مکانیحسین حسنی بافرانیدانشکده پزشکی، دانشگاه علوم پزشکی ایران، تهران، ایرانJournal Article20190426This research offers a novel approach for automatic heart rate detection using electrocardiogram(ECG) signal processing, which leads to be used in telemedicine applications. The electrocardiogram is a diagram of the electrical potential changes of the heart muscle that can be recorded at various points in the body. The recorded signals of the chest are widely used in telemedicine applications because of their ease of recording. The P, QRS, and T waves and also ST fragment are the main parts of this signal. The QRS wave represents the heart beat and has a special shape, which is different in each breast lead. This wave is made of three main points;Q, R, and S. The range of R and S points vary from one lead to another. This can facilitate the automatic determination of these points. Determining each of these points is as determining each of the heart beat bits. A number of studies have been undertaken in this context, most of which are based on digital signal processing and signal shape. One of the important methods in this field, is the use of wavelet coefficients. The previous research have often used the reported usual values for the domain, determined by QRS waveguide. Some new methods, that have used the artificial neural network, have their own complexity. The previous research have also used a variety of data, most of which are from the Physionet.org site databases(PTBDB). The purpose of this research, is to offer a new method for the simpler signal processing in accordance to the shape of the employed lead signal. The proposed algorithm has some general preprocessing parts including import, reset, noise reduction, points and threshold limit setting of the signal whose main processing includes intersection line formation, location accurate of QRS and heart rate determination. The algorithm was implemented for 93 signals from the PTB Diagnostic ECG Database of the Physionet.org site, which eventually yielded Positive Predictively (P+)and sensitivity (Se)values of100% and99.95% respectively. These values show that the offered algorithm has been more accurate, than those of the existing ones. Finally, the proposed algorithm is implemented on the Android.نوار قلب، تغییرات پتانسیل الکتریکی عضلات قلب را نشان می دهد. این سیگنال اطلاعات با ارزشی درباره وضعیت بیمار نظیر ضربان قلب را در اختیار پزشکان قرار می دهد. در سالهای اخیر با توجه به پیشرفت فناوری های پزشکی از راه دور، تحلیل خودکار این سیگنال به منظور تعیین ضربان قلب موضوع تحقیقات زیادی بوده و الگوریتم های مختلفی برای این کار معرفی شده اند. این الگوریتم ها عموما پیچیدگی های زیادی داشته و کمتر متناسب با شکل و ظاهر سیگنال لید مورد استفاده بوده اند. هدف اصلی این پژوهش ارائه الگوریتمی جدید، آسان، با پیچیدگی محاسباتی کم و متناسب با ویژگی های ظاهری سیگنال استفادهشده، جهت تعیین ضربان قلب و استخراج پیک S در قطعه QRS، به منظور استفاده در کاربردهای پزشکی از راه دور است. این الگوریتم برای 93 سیگنال مختلف اشتقاق V2 پیاده سازی شده و خطای مثبت و منفی که نشان دهنده کارایی الگوریتم هستند، به ترتیب 100% و 95/99% بدست آمده اند. در نهایت الگوریتم ارائه شده در قالب نرم افزار کاربردی اندرویدی پیاده سازی شده است.https://jscit.nit.ac.ir/article_107703_a364273325888b3969609505ee2a24a1.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Investigating the Impact of Ensemble Machine Learning Methods on Spam Review Detection Based on Behavioral Featuresبررسی تأثیر استفاده از روشهای یادگیری ماشین تجمعی در شناسایی نظرهای هرز بر اساس ویژگیهای رفتاری132147107647FAشهریار محمدیدانشکده مهندسی صنایع، دانشگاه خواجه نصیرالدین توسی، تهران، ایرانمیررضا موسویدانشکده مهندسی صنایع، دانشگاه خواجه نصیرالدین طوسی، تهران، ایرانJournal Article20191021One of the most influential links on the Internet is the feedback provided by consumers as an experience of using the product to the people who want to buy that product. Beneficiaries use this opportunity to transfer inaccurate experience in order to promote or demote the value of a particular service or product unjustly, and this is the cause of placing their reviews between spam reviews category. Therefore, identifying these reviews using machine learning techniques and ensemble learners has become a hot topic among researchers. The purpose of this study is to investigate the impact of using ensemble machine learning methods on identifying such reviews using behavioral features. Recent studies have shown that the ensemble methods used in this study in combination with text-based features in addition to imposing more computational expense are not able to improve the performance of the best base learners. In this study, in addition to identifying the best base and ensemble learners in using behavioral features, we seek to determine whether these features combination with ensemble learners can achieve greater accuracy or a significant change in model performance. For this purpose, seven base learners and four ensemble learners such as Bagging, Boosting, Random Forest and Extra Tree were used and the results were compared with the results of using text-based features. Our evaluations show that using the decision tree as a base learner, along with the method of boosting in unbalanced data set and bagging in balanced dataset, yields better results and we can achieve more tangible change in the performance of the best base algorithms by ensemble learners in using behavioral features over text-based.یکی از تأثیرگذارترین ارتباطها در اینترنت، نظرهایی است که توسط افراد مصرفکننده یک محصول بهعنوان تجربه استفاده، در اختیار افراد خواهان خرید محصول قرار میگیرد. استفاده سودجویان از این فرصت انتقال تجربه، بهمنظور ارتقا یا تنزل ارزش یک خدمت یا محصول خاص بهناحق، باعث قرارگیری نظرهای آنها در دسته نظرهای هرز میشود. ازاینرو شناسایی این نظرها با استفاده از روشهای یادگیری ماشین و یادگیرندههای تجمعی به مبحثی داغ در میان محققان تبدیل شده است. هدف این مطالعه بررسی تأثیر استفاده از روشهای یادگیری ماشین تجمعی در شناسایی اینگونه نظرها با استفاده از ویژگیهای رفتاری است. بررسیهای اخیر نشان داده است که روشهای تجمعی مورد استفاده در این مطالعه در ادغام با ویژگیهای متنی علاوه بر تحمیل بار محاسباتی بیشتر قادر به ارتقای عملکرد بهترین الگوریتمهای پایه نیستند. در این مطالعه علاوهبر شناسایی بهترین یادگیرندههای پایه و تجمعی در استفاده از ویژگیهای رفتاری بهدنبال آن هستیم که آیا میتوان با استفاده از این ویژگیها و یادگیرندههای تجمعی به دقتی بیشتر و یا تغییر محسوسی در عملکرد مدل دست یابیم. بدین منظور از هفت یادگیرنده پایه و چهار یادگیرنده تجمعی دستهبندی، تقویتسازی، جنگل تصادفی و درخت اضافی استفاده شد و نتایج حاصل با نتایج استفاده از ویژگیهای متنی مورد مقایسه قرار گرفت. ارزیابیها نشاندهنده عملکرد بهتر یادگیرنده پایه درخت تصمیم بههمراه روش تجمعی تقویتسازی در حالت استفاده از مجموعهداده نامتوازن و روش تجمعی دستهبندی در استفاده از مجموعهداده متوازن و همچنین تغییر محسوستر عملکرد بهترین الگوریتم پایه، توسط یادگیرندههای تجمعی، در استفاده از ویژگیهای رفتاری نسبت به متنی است.https://jscit.nit.ac.ir/article_107647_bc401cb4aff47a5cda40f4f9631a3331.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Learning Membership Functions for Mining Fuzzy Association Rules Using Learning Automataیاگیری توابع عضویت برای کاوش قوانین انجمنی فازی با استفاده از اتوماتای یادگیر148162107866FAزهره اناریدانشکده مهندسی کامپیوتر، واحد ارومیه،دانشگاه آزاد اسلامی، ارومیه، ایران.عبدالرضا حاتم لوگروه کامپیوتر، واحد خوی، دانشگاه آزاد اسلامی، خوی، ایرانمحمد مصدریدانشکده مهندسی کامپیوتر، دانشگاه آزاد اسلامی واحد ارومیه ، ارومیه، ایران.Journal Article20191021The Transactions in web datasets often consist of quantitative data, suggesting that the fuzzy set theory can be used to represent such data. The time duration of web pages browsed by users is one type of data saved on log files, which can be used as an important factor to analyze the browsing behavior of users. In all existing researches for mining fuzzy association rules in web usage data the number and parameters of membership functions considered for the time parameter are assumed to be constant across all web pages. However, the number and parameters of the membership functions used for each web page are different from other web pages. So to address this challenge, in this paper a reinforcement based optimization approach based on learning automata(LA) called LA-OMF is proposed to automatically extract both the number and parameters of trapezoidal membership functions for fuzzy association rules in web data. Also, a new heuristic was proposed to increase the convergence speed of the proposed method and eliminate inappropriate membership functions. The performance of the proposed approach was evaluated and the results were compared with the results obtained using the fuzzy web mining approach on a real dataset. Experiments on datasets with different sizes confirmed that the proposed LA-OMF by extracting the optimized membership functions increased the average efficiency of the objective function and the fuzzy support compared to the uniform membership functions by 39% and 61%, respectively.تراکنش ها در مجموعه دادههای وب اغلب از داده های کمّی تشکیل شده، که نشان میدهد تئوری مجموعههای فازی میتواند برای نشان دادن چنین داده هایی استفاده شود. مدت زمان صفحات وب که توسط کاربران ملاقات میشود، یکی از انوع داده ذخیره شده درلاگ های وب است که می-تواند به عنوان یک عامل مهم برای تحلیل رفتار حرکتی کاربران استفاده شود. هرچند، در تمامی کارهای انجام شده برای کاوش قوانین انجمنی از داده های مورد استفاده از وب تعداد و پارامترهای توابع عضویت در نظر گرفته شده برای پارامتر زمان، در تمام صفحات وب ثابت فرض شده است. این در حالی است که تعداد و پارامترهای توابع عضویت مورد استفاده برای هر صفحه وب با سایر صفحات وب متفاوت است. بنابراین برای حل این چالش در این مقاله، یک روش بهینه سازی یادگیری تقویتی مبتنی بر اتوماتای یادگیر با نام LA-OMF برای استخراج خودکار هر دوی تعداد و پارامترهای توابع عضویت ذوزنقهای برای استخراج قوانین انجمنی فازی از دادههای وب ارائه شده است. همچنین برای افزایش سرعت همگرایی روش پیشنهادی و حذف توابع عضویت نامناسب هیوریستیک جدیدی ارائه شد. کارایی روش پیشنهادی مورد ارزیابی قرار گرفت و نتایج با نتایج به دست آمده با استفاده از روش کاوش فازی وب در یک مجموعه داده واقعی مقایسه شد. آزمایشات بر روی مجموعه داده با اندازه های مختلف تأیید کرد که روش پیشنهادی LA-OMFبا استخراج توابع عضویت بهینه میانگین کارایی تابع هدف و پشتیبان فازی را در مقایسه با توابع عضویت یکنواخت به ترتیب 39% و 61% افزایش داده است.https://jscit.nit.ac.ir/article_107866_e7dd3e9dde060f5f2b9d0ce1655db087.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922An Improved View Selection Algorithm in Data Warehouses by Shuffled Frog Leaping Algorithm in 0/1 Knapsack Problemبهبود الگوریتم انتخاب دید در پایگاه داده ی تحلیلی با استفاده از الگوریتم جهش ترکیبی قورباغه در حل مساله کوله پشتی صفرویک163179110806FAریحانه صباغ گلدانشکده مهندسی کامپیوتر، دانشگاه تربیت دبیر شهید رجایی، لویزان، تهران، ایران.نگین دانشپوردانشکده مهندسی کامپیوتر، دانشگاه تربیت دبیر شهید رجایی، تهران، ایران.Journal Article20171023A data warehouse is designed for responding analytical queries. The data in data warehouse are historical. The response time in data warehouse is long. So the response time problem should be solved. Using views is a solution for the problem. But it is impossible to materialize all views. On the other hand, materializing optimal views is a NP-Complete problem. Therefore view selection algorithms were introduced. Some of these algorithms materialize frequent queries. Previously queries have important queries and will be used in the future probably. This paper, proposes an algorithm for materializing proper views. The algorithm finds proper views by using previous queries and materializes them. The views are able to respond many future queries. This paper uses shuffled frog leaping algorithm to find proper views in 0/1 knapsack problem. So the proposed algorithm improves the response time of the previous algorithms.پایگاه دادهی تحلیلی، برای پاسخگویی به پرسوجوهای تحلیلی طراحی میشود. دادههای موجود در پایگاه دادهی تحلیلی، دادههای تاریخی هستند. در پایگاه دادهی تحلیلی، زمان پاسخگویی به پرسوجوهای تحلیلی، زمان زیادی است. بنابراین باید به دنبال روشی برای کاهش این مدت زمان بود. استفاده از دید، راهحل مناسبی برای کاهش زمان پاسخگویی است. اما امکان ذخیرهسازی تمام دیدهای ممکن وجود ندارد. از طرفی دیگر، ذخیرهسازی دیدهای بهینه، یک مسئلهی NP-Complete میباشد. به این منظور، الگوریتمهای انتخاب دید زیادی ارائه شدهاند که از جملهی این الگوریتمها میتوان به الگوریتمهایی اشاره کرد که دیدهای پرکاربرد را ذخیره میکنند. پرسوجوهایی که قبلا مورد استفادهی پایگاه دادهی تحلیلی بودهاند، حاوی اطلاعات مهمی هستند که به احتمال زیاد در آینده نیز مورد استفاده خواهند بود. این مقاله، الگوریتمی برای ذخیرهسازی دیدهای مناسب ارائه میدهد. این الگوریتم با استفاده از پرسوجوهای قبلی، دیدهای مناسب را یافته و آنها را ذخیره میکند. این دیدها توانایی پاسخگویی به بسیاری از پرسوجوهایی که در آینده اتفاق خواهند افتاد را دارند. این مقاله از الگوریتم جهش ترکیبی قورباغه برای یافتن دیدهای بهینه در حل کولهپشتی صفرویک استفاده کرده است که باعث بهبود روشهای قبلی و کاهش زمان پاسخ به پرسوجوها شدهاست.https://jscit.nit.ac.ir/article_110806_f8a4a6c931baee8d4fe466783d5ab1e8.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Proposing two quantum audio watermarking schemes with improved robustnessارائه دو رویکرد نهان نگاری صوتی کوانتومی بهبودیافته از نظر مقاومت180195107813FAمحسن یوسفی نژادگروه مهندسی کامپیوتر،واحد دزفول، دانشگاه آزاد اسلامی ، دزفول، ایران.محمد مصلحگروه مهندسی کامپیوتر، واحد دزفول، دانشگاه آزاد اسلامی، دزفول، ایران0000-0002-0991-1623سعید رسولی هیکل آبادگروه مهندسی کامپیوتر، واحد تبریز، دانشگاه آزاد اسلامی، تبریز، ایران.Journal Article20190523Abstract- As an important security technology, recently quantum watermarking attracted wide research attention. Up to now, several methods have been proposed for quantum image watermarking, while there are a few achievements in the domain of quantum audio watermarking. This study presents two quantum audio watermarking schemes, with the aim of improving robustness. The first scheme embeds a watermark qubit into odd number of qubits of host audio, and employs majority-voting policy to extract the correct watermark qubit. In the second proposed scheme, k audio samples are grouped as a frame, which holds one qubit of watermark. In order to embed a qubit into a frame, parameter r, which is sum of frame amplitudes, is calculated in module 2k. The amplitudes are then adjusted to set parameter r in the median of two ranges, [0, 2k-1-1], and [2k-1, 2k-1] to represent embedding ├ |0⟩ or ├ |1⟩. The parameter r is recalculated in extracting phase, and based on belonging to a range, the extracted qubit is determined. For every procedure of the proposed schemes, the quantum circuit and complexity analysis are presented. The circuit complexity of both proposed schemes is linear. Experimental results show that the proposed schemes offer promising trade-offs in terms of robustness and transparency.چکیده- اخیرا نهاننگاری کوانتومی به عنوان یک مبحث امنیتی مهم توجه پژوهشگران زیادی را به خود جلب کرده است. تاکنون روشهای زیادی برای نهاننگاری تصاویر کوانتومی پیشنهاد شده است ولی دستاوردهای انگشتشماری در حوزه نهاننگاری صوت کوانتومی به چشم میخورد. این مقاله دو رویکرد نهاننگاری صوت کوانتومی را با هدف بهبود مقاومت ارائه میدهد. رویکرد اول یک کیوبیت نهاننگاره را در تعداد فردی از نمونههای صوتی سیگنال میزبان جایگذاری کرده و با استفاده از روش رای گیری اکثریت، کیوبیت صحیح را استخراج میکند. در رویکرد پیشنهادی دوم، تعداد k نمونه صوتی از سیگنال میزبان به عنوان یک قاب، گروه بندی میشوند که حامل یک کیوبیت از نهاننگاره خواهند شد. به منظور جایگذاری یک کیوبیت، مجموع دامنه نمونههای صوت در پیمانه 2k محاسبه میشود (r)، و با افزایش یا کاهش جزئی مقدار دامنه نمونهها، مقدار r در مرکز یکی از دستههای [0,2k-1-1] و [2k-1,2k-1] به ترتیب برای درج کیوبیت ├ |0⟩ یا ├ |1⟩ تنظیم میگردد. در زمان استخراج، مقدار r مجددا محاسبه شده و با توجه به اینکه در کدام یک از دستههای مذکور قرار میگیرد، کیوبیت استخراج شده مشخص خواهد شد. برای هرکدام از رویکردهای پیشنهادی، مدار کوانتومی و تحلیل پیچیدگی ارائه شده است. پیچیدگی مداری هر دو رویکرد ارائه شده خطی است. نتایج شبیه سازی نشان میدهد که رویکردهای ارائه شده مصالحه قابل قبولی بین مقاومت، شفافیت و ظرفیت ارائه میدهند.https://jscit.nit.ac.ir/article_107813_fc2c5a7d105b2c82591603fa3c78f764.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Performance Improvement in Multiprocessors Using Three Steps of Non Contiguous Migration for Online Mappingبهبود کارایی در چندپردازنده ای ها با استفاده از سه مرحله مهاجرت ناپیوسته جهت نگاشت برخط196205110808FAاکرم رضاگروه کامپیوتر،واحد شهرقدس، دانشگاه آزاد اسلامی، تهران، ایرانمهناز رفیعیگروه کامپیوتر، واحد رامهرمز، دانشگاه آزاد اسلامی، رامهرمز، ایرانJournal Article20190710In this paper, we have presented different concepts and parameters in the online mapping for different jobs in the network on chips. Thus, three essential steps are considered which are finding the appropriate size of sub-mesh, finding a sub-mesh place in integrating the mesh for online task allocation and finding the main place in sub-mesh for online task mapping. For this purpose, efficient previous models to select the dimensions of the sub-mesh, the processor migration methods based on the two-row boundary, limited left-right compaction, limited top-down compaction, online dynamic compaction-four corner (ODC-FC) and hybrid migrations for mesh topology are compared with the proposed algorithm to check the comparative performance. Also, the impact of different performance parameters which are average job execution time and average system utilization will be compared against the previous mechanisms to achieve the appropriate configuration of the network on chips. It is worth noting that in this article, 7 algorithms, which have achieved better performance, have been selected among the 29 ones. We have demonstrated that using hybrid migration strategies enable us to limit the number of processors migrations. Consequently, significant improvements have been achieved in the average job execution time (%36 ~ %38.1), and the average system utilization (%38.2~%48.5).در این مقاله مفاهیم و پارامترهای مختلف در نگاشت برخط برای کارهای متعدد در شبکه روی تراشه بررسی شده است. در این راستا سه گام اساسی پیدا نمودن اندازه زیرتوری مناسب، محل زیرتوری در همبندی توری جهت تخصیص و مکان اصلی در زیرتوری جهت نگاشت بر خط کار در نظر گرفته شده است. لذا الگوریتم های مؤثر پیشین جهت انتخاب ابعاد زیرتوری، الگوریتم های مهاجرت پردازنده مبتنی بر دو مرز سطری، فشرده سازی بالا پایین محدود شده، فشرده سازی چهارگوشه برخط پویا (ODC-FC) و روش های مهاجرت ترکیبی برای همبندی توری با الگوریتم پیشنهادی جهت بررسی کارایی مقایسه شده است. در این راستا، تأثیر پارامترهای کارآیی میانگین زمان اجرای کار و میانگین بهره وری سیستم با الگوریتم های پیشین جهت دستیابی به پیکربندی مناسب در شبکه های روی تراشه بررسی شده اند. در این مقاله بیست و نه الگوریتم مختلف پیاده سازی شده و از بین آن ها هفت الگوریتم که عملکرد بهتری نسبت به سایرین دارا هستند انتخاب شده است. در واقع، با استفاده از روش های مهاجرت تلفیقی کارا توانستیم تعداد مهاجرت های پردازنده ها را محدود نماییم و در نتیجه میانگین زمان اجرای کار بین 36% تا 38.1% و میانگین بهره وری سیستم بین 38.2% تا 48.5% بهبود یافته است.https://jscit.nit.ac.ir/article_110808_b1b98ad41a63959c94dfc7cc06004390.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922A routing algorithm based on movement direction and position of vehicles for vehicular Ad hoc networksارائه یک الگوریتم مسیریابی مبتنی بر جهت حرکت و موقعیت خودروها برای شبکههای موردی بینخودرویی206213110807FAرعنا عربنژاددانشکده مهندسی برق و کامپیوتر، واحد تبریز، دانشگاه آزاد اسلامی، تبریز، ایرانشهرام بابائیگروه کامپیوتر، دانشکده مهندسی برق و کامپیوتر، واحد تبریز، دانشگاه آزاد اسلامی، تبریز، ایران0000-0001-7830-2496Journal Article20190302The special features of Vehicular Ad hoc Networks (VANET) such as dynamic topology and limited vehicle radius, as well as the wireless transmissions and presence of various obstacles such as buildings and trees, highlight the need for Road Side Unit (RSU) equipment. Due to the lack of sustainable communication between the vehicles, the position-based routing algorithms are an appropriate option for these networks. In this paper, a geographic routing algorithm is proposed that considers various parameters such as distance, packet priority, vehicle movement direction, and vehicle density to decrease the end-to-end delay and reduce the packet loss in VANET networks. The conducted simulations in the THE ONE tool have validated the effectiveness of the proposed approach in terms of packet delivery rate, average end-to-end delay, and hop count in comparison to RAGR, CMGR, and SDR algorithms. According to the simulation results, the packet delivery ratio of the proposed approach has improved by 26% and 23% with 200 and 300 vehicles, respectively. Moreover, the proposed approach provides an enhancement of 82% and 65% in end-to-end delay, as well as 14% and 20% in hop count with 200 and 300 vehicles, respectively.چکیده- ویژگیهای خاص شبکههای موردی بینخودرویی مانند توپولوژی پویا و محدود بودن برد رادیویی خودروها همچنین بیسیم بودن محیط انتقال بین خودروها و وجود موانع مختلف مانند ساختمانها و درختان نیاز به تجهیزات کنار جادهایی را در مسیریابی شبکههای موردی بینخودرویی مطرح کرده است. با توجه به عدم وجود ارتباطهای پایدار در شبکههای موردی بینخودرویی، الگوریتمهای مسیریابی مبتنی بر موقعیت گزینه مناسبی برای این شبکهها میباشند. لذا در این مقاله یک رویکرد مسیریابی مبتنی بر موقعیت برای شبکههای موردی بینخودرویی ارائه میشود که برای مسیریابی، پارامترهای متعددی مانند فاصله، اولویتبندی بستهها، جهت حرکت خودروها و تراکم خودروهای شبکه را در نظر میگیرد تا قادر باشد تأخیر انتها به انتها و تا حد امکان گم شدن بستهها را کاهش دهد. برای ارزیابی کارایی رویکرد پیشنهادی از شبیهساز THE ONE استفاده شده است و عملکرد رویکرد پیشنهادی با الگوریتمهای RAGR، CMGR، SDR مورد مقایسه قرارگرفته است. نتایج شبیهسازیها نشان میدهند که بطور متوسط نرخ تحویل بسته رویکرد پیشنهادی 26% با حضور 200 خودرو و 23% با حضور 300 خودرو، تأخیر انتها به انتها 82 % با حضور 200 خودرو و 65 % با حضور 300 خودرو و تعداد گامها 14 % با حضور 200 خودرو و 20 % با حضور 300 خودرو نسبت به پروتکلهای مورد مقایسه بهبود داشته است.https://jscit.nit.ac.ir/article_110807_6d9dd599efa938f7afb1e9fee45f9641.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922A Hybrid Ensemble (Learning) of Knowledge-based Approaches for Content-based Filtering and Managing Information Resourcesچارچوب ترکیبی (یادگیری-دانشمحور) برای فیلتر محتوایی اطلاعات و مدیریت منابع اطلاعاتی214228111568FAمرتضی جادریانگروه مهندسی کامپیوتر- دانشگاه بوعلی سینا- همدان - ایرانحسن ختن لوگروه کامپیوتر- دانشکده مهندسی- دانشگاه بوعلی سینا- همدان- ایران0000-0001-7351-9397Journal Article20190725Knowledge-oriented content-based filtering techniques are among the most effective ways to search, filter, and manage information resources. In this paper, a novel filtering framework for (textual) information resource management purposes is introduced. The proposed method uses the collective knowledge of ontology and structured knowledge bases for developing semantic similarity methods. The semantic similarity methods are used to filter and classify documents in accordance with user preferences. Also, the knowledge-based semantic similarity methods are integrated in a “Mixture of Experts” model so that information resources and documents are filtered and managed based on the collective knowledge of these methods (experts). The integration of knowledge-based methods in the learning "Mixture of Experts" model is a novel idea and one of the main contribution of this paper. The evaluation results suggest that the integration of knowledge-based semantic similarity measures in "Mixture of Experts" model improves system performance and leads to the accurate classification of documents.روشهای فیلتر محتوایی مبتنی بر دانش، روشهای مؤثری برای جستجو، فیلتر کردن و مدیریت اطلاعات هستند. در این مقاله، یک چارچوب بدیع فیلتر و مدیریت منابع اطلاعاتی متنی معرفی میشود. روش پیشنهادی از دانش جمعی/گروهی مدل شده در آنتولوژی و پایگاههای دانش ساختیافته جهت توسعه روشهای محاسبه معنایی شباهت استفاده میکند. از روشهای محاسبه معنایی شباهت توسعه داده شده برای فیلتر و دستهبندی کردن اسنادی استفاده میشود که حاوی اطلاعات متنی منطبق با ترجیحات کاربری هستند. همچنین، روشهای توسعه داده شده در یک مدل «ترکیب خبرگان» با یکدیگر یکپارچه میشوند تا تصمیمات مرتبط با فیلتر و مدیریت منابع اطلاعاتی، از طریق اجتماع دانش خبرهها اتخاذ گردد. یکپارچهسازی روشهای مبتنی بر دانش در مدل یادگیری ماشین «ترکیب خبرگان» ایده بدیع پیشنهادی در این مقاله است. نتایج ارزیابی نشان میدهد اجماع خبرگی روشهای مبتنی بر دانش در مدل یادگیری گروهی «ترکیب خبرگان» عملکرد سیستم را ارتقاء میبخشد و منجر به دستهبندی دقیق اسناد متنی میشود.https://jscit.nit.ac.ir/article_111568_6ca26e6e701de717d072c316b4e6ee68.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922A ِDistributed Fuzzy-based Clustering Scheme to Optimize Energy Consumption and Data Transmission in Wireless Sensor Networksیک روش خوشه بندی توزیع شده مبتنی بر منطق فازی برای بهینهسازی مصرف انرژی و انتقال داده در شبکههای حسگر بیسیم229243111419FAمحمد علائیگروه مهندسی کامپیوتر - دانشکده فنی - دانشگاه ولی عصر (عج) رفسنجان0000000312737635فهیمه یزدان پناهگروه مهندسی کامپیوتر - دانشکده فنی - دانشگاه ولی عصر (عج) رفسنجان0000-0002-8210-8204Journal Article20191110Due to importance of energy conservation in wireless sensor networks, clustering algorithms and then cluster-based routing schemes are widely designed and utilized in this kind of network. To collect data in the base station, each sensor node sends the sensed data toward the cluster head via single or multi hops. Multi-hop data transmission in the clusters yields unbalanced load of the cluster members. The nodes around the cluster heads have to forward all the received packets from the cluster area; thus, the rate of energy consumption of cluster members is unbalanced. Accordingly, the lifetime of network is shortened by dying the high load nodes. In this paper, a distributed fuzzy-based clustering scheme is proposed to optimize energy consumption and data transmission of wireless sensor networks. In the proposed scheme, the remaining energy and degree of the nodes, transfer time of packets, the hops to the base station, average distance to neighboring nodes and residual energy of the neighboring nodes are considered as the criteria for cluster head selection. Each node calculates its probability of becoming cluster head via a distributed fuzzy inference system. The evaluations show DEEFCA compared to EEDCF, DFLC and EADEEG schemes, enhances network lifetime respectively by 12.8%, 21.5% and 25.8%, also, the amount of data transferred by the network is increased by 19.7%, 71% and 167%.بنا به اهمیت بالای بهینهسازی مصرف انرژی در شبکههای حسگر بیسیم، الگوریتمهای خوشهبندی و سپس مسیریابی خوشهای بهطور گستردهای در این شبکهها طراحی و استفاده میشوند. به منظور جمعآوری اطلاعات در ایستگاه پایه، هر گره حسگر، دادهها را به سر خوشهای که به آن تعلق دارد با ارتباط یک یا چندگامی، انتقال میدهد. ارتباط چندگامی در خوشه، مسأله عدم تعادل بار و در نتیجه، مصرف انرژی زیاد گرههای میانی را که نزدیک به سرخوشه میباشند، دربردارد. انرژی این گرهها سریعتر از گرههای دورتر مصرف میشود و در نتیجه، این موضوع، موجب مرگ زودهنگام این گرهها و نیز کاهش طول عمر شبکه میگردد .در این مقاله، الگوریتمی توزیعشده برای خوشهبندی با هدف صرفهجویی در مصرف انرژی پیشنهاد میشود. در انتخاب سرخوشهها در روش پیشنهادی که DEEFCA نامیده میشود، انرژی و درجه گره مورد بررسی و انرژی باقیمانده گرههای همسایه آن گره، فاصله بین سرخوشههای انتخابی، مدت زمان ارسال بسته و تعداد گامها از گره مورد بررسی تا ایستگاه پایه و پراکندگی، بهعنوان پارامترهای ورودی در نظر گرفته میشوند. در این الگوریتم، هر گره احتمال سرخوشه شدن خود را با استفاده از سیستم استنتاج فازی به شیوهای توزیعشده محاسبه میکند. نتایج حاصل و ارزیابیها نشان میدهند که DEEFCA در مقایسه با روشهای مشابهEEDCF ،DFLC و EADEEG طول عمر شبکه (با در نظر گرفتن زمان مردن نیمی از گرهها) را بهترتیب، بهمیزان %12.8، %21.5 و %25.8 بهبود میبخشد و نیز، مقدار انتقال داده در شبکه به میزان %19.7، %71 و %167 افزایش مییابد.https://jscit.nit.ac.ir/article_111419_290c7ba91e33e31d65f0822bf784cca6.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922Provide an Optimal Model for Finding the Shortest Estimated Paths with Full Graph Coverageارائه مدلی بهینه جهت یافتن کوتاهترین مسیرهای تخمینی با پوشش کامل گراف244255111569FAشکوفه بستانگروه مهندسی کامپیوتر، دانشگاه یزد، یزد، ایرانعلی محمد زارع بیدکیدانشیار، دانشکده مهندسی برق و کامپیوتر، دانشگاه یزد، یزد، ایرانJournal Article20190706Due to the increasing volume of information in social networks and the web, the need for efficient and fast algorithms for analyzing graph content is felt more than ever. One of the most important operations in a graph is to find the shortest path between two nodes, which can have different applications in routing and communication. Classic algorithms are very slow and computationally expensive, nearly impossible, so algorithms using approximation approaches are often used based on Landmark nodes. In this study, four landmark models are introduced. Using innovative methods, landmark nodes are selected for each nodes cluster, the shortest paths are pre-computed and the results are Hashing for direct access. Hence, a fast, efficient and precise result retrieval is possible when an online query is executed. The proposed methods cover the entire graph can reduce the error rate by 0.0016.با توجه به افزایش حجم اطلاعات در شبکه های اجتماعی و فضای وب، نیاز به الگوریتم های سریع برای آنالیز محتوای گراف بیش از پیش احساس می شود. یکی از مهمترین عملیات ها در گراف، یافتن کوتاهترین مسیر بین دو گره است که می تواند کاربردهای مختلفی در مسیریابی و ارتباطات داشته باشد. الگوریتم های کلاسیک برای حل این مسئله بسیار کند و استفاده از آن ها عملا غیرممکن است، بنابراین می توان ازالگوریتم های تخمینی استفاده کرد که اغلب مبتنی بر لندمارک هستند. در این مقاله چهار مدل تخمینی مبتنی بر لندمارک معرفی می گردد که با استفاده از روش های ابتکاری، گره های لندمارک به صورت برون خط انتخاب می گردند. همچنین از یک الگوریتم ابتکاری برای خوشه بندی گره ها استفاده شده و سپس کوتاهترین مسیرها در هر خوشه محاسبه می گردد، همچنین از داده ساختار هش استفاده می شود تا دسترسی به گره ها به صورت مستقیم صورت پذیرد و در زمان اجرای پرس وجو به صورت برخط، با سرعت و دقت بالا مورد استفاده قرار گیرد. روش های پیشنهادی با هدف پوشش کل گراف می تواند خطای قابل محاسبه را به 0/0016 کاهش دهد.https://jscit.nit.ac.ir/article_111569_a3ecfceda0172a207c1c3feecea512e6.pdfدانشگاه صنعتی نوشیروانی بابلمجله علمی رایانش نرم و فناوری اطلاعات2383-10069320200922A New Flash Translation Layer with In-Block Update Capabilityیک لایه ترجمه فلش جدید با قابلیت بروزرسانی درون بلوکی256270112861FAرضا غلامی تقی زادهدانشگاه خوارزمیرامین غلامی تقی زادهدانشگاه خوارزمی تهرانمحمدرضا بینش مروستیدانشگاه خوارزمیسید امیر اصغریاستادیار گروه برق و کامپیوتر، دانشکده فنی و مهندسی دانشگاه خوارزمیJournal Article20191129The emergence of non-volatile NAND flash memory led to a new generation of Solid State Drives (SSD). One of the most important features of this type of drive is to update the data sectors out of place. In SSDs, a middleware called Flash Translation Layer (FTL) is used to hide such features from the operating system. The most important tasks consist of address translation, garbage collection, and wear leveling effect. Address translation has a great effect on the efficiency and read/write speed within SSDs. In this paper, we propose a new address translation scheme based on data compression, called In Block Update FTL. In the proposed scheme, the required memory of the address mapping table has been significantly reduced. Moreover, our extensive experimental results show that the proposed FTL scheme outperforms previous FLT schemes in the read and write operations under real workloads.ظهور حافظه های پایدار نیمه هادی از نوع NAND فلش منجر به تولید نسل جدیدی از حافظه های جانبی به نام درایوهای حالت جامد (SSD) شد. یکی از مهمترین ویژگی های این نوع از درایوها به روزرسانی سکتورهای داده به صورت بیرون از مکان است. در SSDها برای مخفی کردن چنین ویژگی هایی از دید سیستم عامل، از یک بخش میان افزاری به نام لایه ترجمه فلش (FTL) استفاده می کنند. وظایف این بخش شامل ترجمه آدرس، زباله روبی و پخش فرسودگی است. در این مقاله یک طرح جدید برای لایه ترجمه فلش بر مبنای فشرده سازی داده ها به نام لایه ترجمه فلش با قابلیت به روزرسانی درون بلوکی (In Block Update FTL) پیشنهاد شده است. در این طرح پیشنهادی، حافظه مورد نیاز برای جدول نگاشت آدرس به میزان قابل توجهی کاهش یافته است. همچنین نتایج شبیه سازی با حجمکاری (Workload) واقعی نشان می دهد که سرعت خواندن و نوشتن روش مذکور نسبت به طرح مشابه قبلی به میزان قابل قبولی بهبود یافته است.https://jscit.nit.ac.ir/article_112861_47939436532274fccd4f90db0e90a25c.pdf