close
دانلود فیلم
دانلود پایان نامه ارشد
 
پایان نامه کلاسه‌بندی رادارهای کشف شده توسط سیستم‌های جنگ الکترونیک

پایان‌نامه کارشناسی ارشد در رشته مهندسی فناوری اطلاعات (طراحی و تولید نرم‌افزار)

عنوان:کلاسه‌بندی رادارهای کشف شده توسط سیستم‌های جنگ الکترونیک

تعداد صفحات :79

چکیده:

همواره در یک محیط عملیاتی جنگ الکترونیک پالس‌های متعددی از رادارهای فعال در منطقه موجود می‌باشد. یکی از روش‌های تشخیص تهدیدات هوایی، دریایی و زمینی، استفاده از تحلیل سیگنال راداری است که توسط این‌گونه تهدیدات حمل می‌شوند. ازآنجایی‌که رادار به عنوان یکی از مهم‌ترین حسگرها در این حوزه مورد استفاده قرار می‌گیرد، لذا شناسایی دقیق و سریع رادارهای موجود در یک منطقه عملیاتی از اهمیت ویژه‌ای برخوردار است.

برای شناسایی رادارها، واحد پردازش اطلاعات نقش مهمی را بر عهده دارد که یکی از بخش‌های مهم این واحد، کلاسه‌بندی رادارهای کشف شده می‌باشد. در این تحقیق از الگوریتم SVM برای این منظور استفاده شده است که با توجه به نتایج به‌دست‌آمده از شبیه‌ سازی‌ها و مقایسه آن با چند روش دیگر، الگوریتم مذکور بهترین کارایی را دارد.

ادامه مطلب...
ارزیابی الگوریتم‌های کنترل همروندی سیستم مدیریت پایگاه داده‌ها، از طریق مدل‌سازی با پتری رنگی

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته کامپیوتر

عنوان : ارزیابی برخی الگوریتم‌های کنترل همروندی در سیستم مدیریت پایگاه داده‌ها، از طریق مدل‌سازی با پتری رنگی

تعداد صفحه : 123

ساختار پایان‌نامه

این پایان‌نامه به فرم زیر سازماندهی شده است.

در فصل دوم پیشینه‌ی تحقیق و مطالب مرتبط آورده شده است. در این فصل یک مرور کلی بر کلیات مطلب، اهداف، پیشینه‌ی تحقیق و سایر کارهای انجام شده در این زمینه خواهیم داشت. در پیشینه تحقیق، می‌پردازیم به این که تا کنون چه الگوریتم‌هایی ارائه شده، ارزیابی از طریق چه روش‌هایی صورت گرفته است و مانند آن‌ها. همچنین تعدادی از پارامترها و معیارهای ارزیابی الگوریتم‌های کنترل همروندی را بررسی خواهیم نمود. علاوه بر آن بعضی روش‌های پیاده‌سازی و شبیه‌سازی‌ موجود مانند پیاده‌سازی در مقیاس کوچک، شبیه‌سازی از طریق مدل مارکف، شبیه‌سازی از طریق شبکه‌های پتری و مانند آن‌ها را بررسی می‌کنیم و به مزایا و معایب آن‌ها اشاره‌ای خواهیم داشت. همچنین روش تجزیه و تحلیل از طریق صف نیز بطور مختصر مورد بررسی قرار می‌گیرد.

در فصل سوم انواع الگوریتم‌های کنترل همروندی پایه‌ای موجود را بررسی خواهیم کرد. در این میان تعدادی از الگوریتم‌های کنترل همروندی مانند پروتکل قفل 2PL که احتمال بن‌بست در آن وجود دارد و تکنیک‌های WW و WD که تکنیک‌های پیش‌گیری از بن‌بست هستند را مورد مطالعه قرار می‌دهیم. مزایا و معایب هر یک از این الگوریتم‌های کنترل همروندی پایه‌ای را نیز تا حدودی بررسی خواهیم نمود.

در فصل چهارم نیز به بررسی شبکه‌های پتری، مخصوصاً شبکه‌های پتری رنگی که یکی از ابزارهای بسیار مفید برای شبیه‌سازی الگوریتم‌های کنترل همروندی هستند، پرداخته می‌شود.

در فصل پنجم نحوه‌ی مدل‌سازی الگوریتم‌های مورد نظر با استفاده از شبکه‎های پتری بیان شده است؛ که شامل تعریف مجموعه‌های رنگ، نشانه‌گذاری‌های اولیه، متغیرهای موجود در مدل، شرح عملکرد توابع مدل و تعیین اولویت برای فایر شدن گذار مورد نظر از بین گذارهای فعال می‌باشد.

در فصل ششم که همان بخش پایانی است مدل‌ها بر اساس پارامترهای متفاوت بررسی و با هم مقایسه شده‌اند. آزمایش‌های مورد نیاز صورت گرفته و هرکدام چندین بار تکرار گردیده‌اند. نتایج میانگین‌گیری شده و نمودارهای لازم جهت مقایسه ترسیم شده‌اند. در نهایت نیز نتیجه‌گیری کلی از مباحث بیان شده مشاهده می‌شود و پیشنهاداتی برای کارهای آینده ارائه خواهد شد.

ادامه مطلب...
پایان نامه بهینه سازی زبان یکپارچه ساز بر روی شبکه اطلاعاتی ناهمگون

فـرمت: DOC
تعداد صفحات: ۱۳۲ صفحه
رشتــه : کامپیوتر

 

بصورت کامل ، مرتب ، قابل ویرایش و آماده چاپ میباشد.

توضیحات:

 

 

چکیده

امروزه XML به یکی از قالب‌های مهم برای ذخیره و تبادل داده‌ها تبدیل شده است. انعطاف ساختار XML موجب گسترش استفاده از آن گردیده و حجم اسناد XML روز به روز در حال افزایش است. در نتیجه به منظور مدیریت اسناد XML نیاز به یک سیستم مدیریت جامع می‌باشد؛ زیرا سیستم مدیریت فایلی توانایی مدیریت چنین حجمی از داده‌ها را ندارد. با رشد چشمگیر این پایگاه‌های ‌داده نیاز به تسریع در عملیات اجرای کوئری‌ها حس می‌شود. بیشتر محققان به این جنبه XML پرداخته‌اند و روش‌های زیادی در این زمینه ارائه شده است. اما از آن‌جایی که ساختار XML با ساختار رابطه‌ای قدیمی بسیار متفاوت است، اصولا این روش‌ها ناکارآمد هستند و به‌صورت یک استاندارد پذیرفته نشده‌اند، از این رو تلاش محققان برای حل این مشکل دو چندان شده است. تاکنون روش‌های زیادی برای حل این مشکل در دنیای XML ارائه شده‌اند، اما هر روش تنها به جنبه‌ای از نواقص پرداخته و تنها برای دسته کوچکی از کوئریها کارایی دارد در نتیجه برای قسمت عمده کوئری‌ها ناکارامد است. در نتیجه هنوز روش خاصی به عنوان یک استاندارد، مانند SQL در پایگاه داده‌های رابطه‌ای سنتی، وجود ندارد و می توان گفت هنوز استفاده از XML به مرحله بلوغ و بهره‌برداری کامل نرسیده است.

دراین پایان نامه ما به دنبال روشی هستیم که برای دسته بزرگی از کوئریها کارایی لازم را داشته باشد. روشی که در مقایسه با روش‌های مشابه تعداد گره‌های کمتری را مورد دستیابی قرار داده و در زمان کمتری به پاسخ برسد. روشی که قابلیت تلفیق با شاخص‌ روش‌های مشابه را داشته و بتواند از آن‌ها برای تسریع کوئریها استفاده نماید. ما به دنبال روشی هستیم که قابلیت پرش از روی گره‌های بی‌فایده را داشته باشد و داده‌های میانی کمتری در مقایسه با روش‌های مشابه تولید نماید. روشی که با استفاده از یک راهنمای تطابق الگو، به طور مستقیم و کورکورانه به پردازش گره‌ها در سند نپردازد.

 

کلید واژه                                                                                               Keywords

 

کوئری Query

راهنمای تطابق الگو                                                              Structural Summary

جدول شاخص                                                                                   Index Table

عملگر نقیض                                                                                 Not-Operator

شاخص مسیری                                                                                 Path Index

پیوند                                                                                                           Join

برگ                                                                                                        Leave

گره                                                                                                           Node

انطباق                                                                                                     Match

بهینه سازی                                                                                   Optimization

شما                                                                                                     Schema

شاخص سطحی                                                                    Level-Based Index

گره بی‌فایده                                                                                   Useless Node

الگو                                                                                                         Pattern

 

ادامه مطلب...
 طراحی و شبیه سازی مدلی جهت احراز هویت، ردیابی و پیگیری منابع در مراکزداده با استفاده از فناوری RFID

فـرمت: DOC
تعداد صفحات: ۱۱۱ صفحه
رشتــه : کامپیوتر

 

چکیده

مرکز داده، یک انبار متمرکز برای ذخیره سازی، مدیریت و انتشار داده ها و اطلاعات در یک مرکز علمی یا یک تجارت خاص می باشد. در بسیاری از شرکتها، مرکز داده می تواند عملیات بسار بزرگ و پیچیده ای باشد، چرا که بایستی به صورت منظم به تجهیزاتی مثل سرورها و واحدهای ذخیره سازی رسیدگی نمود. به خاطر وجود تعداد بسیار زیاد داراییهای مربوط به  فناوری ارتباطات در یک مرکز داده که بایستی مدام پیگیری و مدیریت شوند، باید سیتمهای جدیدی داشته باشیم که بتوانند به این نیازها پاسخگو باشند.
شناسایی از طریق امواج رادیویی یا RFID یکی از این راه حلها می باشد. RFID سیستمی است که هویت یک شیء یا یک فرد را  از طریق امواج رادیویی انتقال می دهد. یک سیستم RFID از ۴ جزء آنتن، برچسب(RFID)، دستگاه قرائتگر(Reader) و یک دستگاه کنترل کننده(Host) تشکیل میشود. جای تعجب نیست که پیگیری منابع و حفظ امنیت، یکی از رایجترین کاربردهای RFID می باشد. چندین سال است که  دردنیا  RFID به عنوان یک کلید الکترونیکی برای کنترل کسانی که به ساختمانهای اداری یا فضاهای داخلی آن دسترسی دارند، استفاده می شود.
به منظور حل چالش مربوط به شناسایی صحیح داراییها و افزایش امنیت در مراکز داده، در این تحقیق برای پیاده سازی RFID در مراکز داده مدلی متشکل از ۳۷ مرحله  ارائه داده ایم. سپس از یک نمایش ۴ لایهای برای مدلسازی امنیت سیستم در نقاط مختلف یک مرکز داده استفاده
می کنیم. در انتها، مدل امنیتی ارائه شده را با نرم افزار Enterprise Dynamic شبیه سازی می کنیم. با استفاده از این مدل، امنیت مراکز داده و توانایی پیگیری منابع در آن افزایش خواهد یافت.

ادامه مطلب...
پایان نامه طراحی و پیاده‌سازی یک زبان خاص دامنه برای آزمون نرم‌افزار

چکیده:

این پایان‌نامه در مورد طراحی و پیاده‌سازی یک زبان خاص دامنه جهت انجام آزمون بار روی برنامه‌های کاربردی تحت وب است. زبان‌های خاص دامنه، زبان‌هایی هستند که برای انجام اموری در حوزه خاص و با هدف سهولت در تولید برنامه‌ها طراحی می‌شوند. در توسعه هر سیستم نرم‌افزاری، مرحله آزمون نرم‌افزار از جهات مختلف اهمیت بسیار داشته و زمان و هزینه زیادی را تحمیل می‌کند. برای نرم‌افزارهای تحت وب، آزمون بار از اهمیت ویژه‌ای برخوردار است. هدف از این پایان نامه ، ارائه زبانی است که با استفاده از آن بتوان آزمون بار برای برنامه‌های کاربردی تحت وب را با سهولت و سرعت بیشتر و با هزینه و تخصص کمتری انجام داد. در این حوزه، زبان‌های خاص دامنه به منظور انجام آزمون‌‌های واحد و آزمون‌های کاربردی ارائه‌شده‌اند. هرچند با استفاده از برخی قابلیت‌های این زبان‌ها و ترکیب آن‌ها با امکانات زبان‌های همه منظوره، می‌توان آزمون بار نیز انجام داد، اما نمی‌توان از آن‌ها به عنوان یک زبان خاص دامنه جهت آزمون بار نام برد زیرا کاربران همچنان با برخی دشواری‌های زبان‌های همه منظوره درگیر هستند؛ به عبارت دیگر زبان خاص دامنه‌ای که تنها مختص آزمون بار باشد، طراحی و یا گزارش نشده است. این پایان‌نامه در واقع پاسخی به این نیاز است. زبان خاص دامنه پیشنهادی بر مبنای زبان گرووی و چارچوب‌های جِب و اسپاک بنانهاده شده و قادر است تمامی سناریوهایی که یک کاربر انسانی در یک صفحه وب انجام می­دهد را پشتیبانی نماید. در این زبان کاربر می‌تواند مشخص کند که برنامه کاربردی مورد نظر وی، با چه تعداد کاربر به صورت همزمان مورد آزمون قرار گیرد. همچنین امکان ذخیره خروجی و نتایج آزمون به قالب‌هایی مانند XML، XLS، CSV و TXT در نظر گرفته‌شده تا نتایج به راحتی در نرم‌افزارهای تحلیلی و آماری مورد استفاده باشد. در این پایان نامه برای دو برنامه کاربردی تحت وب که سناریوهای متداولی هستند، دو آزمون بار انجام‌شده تا صحت عملکرد زبان در انجام آزمون بار مشخص شود. بر اساس این آزمون­ها، زبان خاص دامنه پیشنهادی زمان ایجاد یک آزمون بار را به طور تقریبی تا 40 برابر برای زبان‌های سطح بالایی چون Java و C# کاهش می‌دهد. این میزان کاهش برای زبان سطح پایین‌تری چون C++ تا 80 برابر نیز می‌رسد. از نظر کد نویسی نیز استفاده از زبان خاص دامنه پیشنهادی برای زبان‌های سطح بالای مذکور تا 6 برابر و برای زبان سطح پایینی چون C++، 10 تا 12 برابر حجم کد نویسی را کاهش می‌دهد.

ادامه مطلب...
 دانلود پایان نامه تطبیق رشته ای برای شناسایی ساختاری الگو

 

 دانلود پایان نامه تطبیق رشته ای برای شناسایی ساختاری الگو

تعداد صفحه :78

چکیده :
روشهای تشخیص الگو بصورت آماری ، نحوی و ساختاری مطرح میشوند. در روشهای ساختاری تشخیص الگو ، از یک مجموعه نمادهای اولیه (سمبول ها) برای شناسایی الگوها استفاده میشود. که این سمبول ها ، خود نیز از الگوها استخراج میشوند. پس از آن مجموعه نمادهای اولیه  با رشته مورد نظر مقایسه شده و فاصله ویرایشی بین آنها بدست میآید ، آنگاه سمبولی که کمترین فاصله را با الگوی اصلی داشته باشد برنده این تطبیق است. ساختارهای دادهای که برای تشخیص ساختاری الگو مورد استفاده قرار میگیرند ، رشته ها ، درختها و گرافها را شامل  میشوند. کاربردهای تشخیص الگوی ساختاری در شناسائی شئ های دو بعدی ، سه بعدی ، کاراکترها ، تشخیص گفتار ، شناسایی لغات مشابه در بانک اطلاعاتی لغت نامه و شناخت اجزای ماشین مطرح میشود.

مقدمه : این مطلب یک ایده متعارف برای تعداد متفاوتی از روشهایی  است که جهت تشخیص الگو بکار میروند و اهمیت ندارد که آن الگوها آماری ، ترکیبی یا ساختاری باشند. این یک مقایسه از الگویی ناشناخته با یک عدد بطور نمونه یا با نمونه الگوی اولیه با استفاده از فاصله یا ( میزان ) شباهت یا تفاوت است. یعنی هر الگوی ناشناخته را بصورت نمونه  با یک رشته عددی تقریب زده و آن رشته را با رشته عددی الگوی اولیه مقایسه می کنیم. ابتدا ارائه یک عدد از نمونه های اولیه که به کلاس مربوط به آن نمونه های اولیه شناخته شده مرتبط است ، و سپس دسته بندی یک الگوی ناشناخته بوسیله تعیین کردن بیشترین شباهت الگوی  تصمیم گیری برای آن کلاس است که دست یافتنی است. پس برای هر نمونه اولیه یک عدد در نظر میگیریم که آن عدد با کلاسهای این نمونه های شناخته شده در ارتباط است و دسته بندی الگوهای ناشناخته بوسیله تعیین کردن بیشترین شباهت الگو و تصمیم گیری درباره کلاس آن  حاصل میشود. در دسته بندی آماری ، نمونه ها به وسیله عامل مشترک از یک تابع تصمیم گیری ارزیابی شدهاند. پارامترها از یک احتمال توزیع شده نقاط ، در یک فضای ویژگی تعریف شده ، و مفهوم شباهت نیز بر اساس فاصله تعریف شده است. و توابع تصمیم گیری در فضای n بعدی از  اعداد حقیقی کار میکنند. اگر ساختار الگو لازم باشد ، گرامرهای رسمی (قراردادی) یک مفهوم مفید هستند. تابع متداول بصورت دستی یا بصورت اتوماتیک یک گرامر از یک بسته نمونه را نتیجه می دهد. بنابراین یک الگوی ورودی ناشناخته به یک تجزیه کننده تحویل داده شده و مطابق با  این گرامر تحلیل میشود. در این روش نه فقط یک دسته بندی ، بلکه همچنین یک شرح ساختاری از الگوی ناشناخته میتوان فراهم کرد. تحلیل گر نحوی میتواند مانند یک تابع ویژه برای تصمیمگیری شباهت ساختاری تفسیر شود.  مطابق ساختارهای دادهای متفاوت که برای تشخیص الگو  مورد استفاده قرار میگیرند ، فقط رشته گرامرها بررسی نمیشود ، بلکه درخت ، گراف و آرایه گرامرها در یک قاعده مهم تشخیص الگو فعالیت دارند. اینها مواردی از تعدادی از مثالهای آماده بسیار کوچک هستند که کاربردشان برای نتیجهگیری دستوری است ، یا در جایی است که تمام  وان یک پیشروی دستوری نیاز نیست. یعنی کاربرد این مثالهای آماده بسیار کوچک برای استنتاجی بر اساس قواعد ، و یا استنتاجی در مکانی که نیازی نیست از تمام توان قواعد استنتاجی استفاده کرد میباشد. اگر ساختار الگو مورد نیاز باشد ، با این حال ، شاید تکنیک تطبیق  ساختاری مفید باشد.
ایده پایهای تطبیق ساختاری ، به سوی بازنمایی مستقیم نمونه های اولیه است ، بخوبی الگوهای ورودی ناشناخته ، که بوسیله معانی یک ساختار داده مناسب و بسوی مقایسه این ساختارها در ترتیبی  برای یافتن شباهت نمونه اولیه با یک الگوی ناشناخته ورودی حرکت می کند. این  حرکت به جلو نیازمند یک عدد قراردادی از شباهت بین دو ساختار ارائه شده است. تعدادی از برخی اعداد در برخی از نوشتهها پیشنهاد شده است. آنها میتوانند به گروههای بزرگی طبق ساختارهای دادهای تقسیم بشوند که برای تشخیص الگو استفاده شدهاند. بیشتر ساختارهای  دادهای مهم ، رشته ای ، درختی ، گراف و آرایهای هستند. وابستگی به دامنه مسائل خاص برای همه این ساختارهای دادهای میتواند بوسیله ویژگیهایشان افزایش یابد. با یک محاسبه پیچیده ، رشتهها خیلی کارآمد هستند ، از آنجائیکه بررسی میزان شباهت بین رشتهها میتواند کاملا  سریع انجام شود ، اگر چه رشتهها به تعداد نمایششان محدود هستند. در موارد خیلی زیاد گرافها بیشترین قدرت رسیدن به بازنمایی الگوی ساختاری را دارند. اگر چه تطبیق گراف بطور مفهومی نسبتا پیچیده است ، و به نسبت قیمت محاسبات ، گران است. بنابراین یک تعادلی بین  تعداد نمایه ها و تعداد تکرارهایمان برای تطبیق نیاز است. اگر ما برای بازنمایی کلاس الگو از یک گرامر استفاده کنیم ، یک تعادل ساده رعایت میشود.

تعداد صفحه :78

ادامه مطلب...
پایان نامه نهان نگاری تصاویر دیجیتال با استفاده از تبدیلات موجک چندگانه

 پایان نامه  نهان نگاری تصاویر دیجیتال با استفاده از تبدیلات موجک چندگانه

تعداد صفحات:84

با رشد سریع اینترنت و پیشرفت در ارتباطات دیجیتال و تکنیک های فشرده سازی ، محتوای رسانه های دیجیتال ، از قبیل موسیقی ، فیلم و تصویر می تواند بطور آنی توسط کاربران نهایی در اینترنت منتشر شود . داده های دیجیتال در برابر نمونه آنالوگ آن  برتری های بسیاری دارد .  یکی از مشکلات احتمالی در کنترل داد های دیجیتالی این است که این داده ها می توانند بدون افت کیفیت تغییر داده شده و به راحتی تکثیر شوند . بنابراین بدون حفاظت و مدیریت حق مالکیت دیجیتال ،محتوای مورد نظر می تواند به راحتی و در حجم وسیعی تکثیر شود .این کار ضرر بسیار بزرگی  را به شرکت هایی که در زمینه تولید محتوی دیجیتال فعالیت می کنند وارد می نماید.

نهان نگاری دیجیتال یکی از تکنیک های نوظهور می باشد که اطلاعات حق مالکیت را به طور مستقیم در درون محتوی رسانه دیجیتال به طور دائم جاگذاری می کند .از اطلاعات جاگذاری به عنوان نهان نگار تعبیر می شود . به طور ایده ال نباید هیچ تفاوتی بین داده نهان نگاری شده و داده اصلی وجود داشته باشد ، و نهان نگار باید به راحتی قابل استخراج بوده و در برابر عملیات رایج پردازش سیگنال   مقاومت یا استحکام مناسب داشته باشد.

با توجه به اهمیت نهان نگاری ،این پایان نامه به دنبال طراحی الگوریتمی برای نهان نگاری تصاویر دیجیتال با بهره گیری از تبدیل موجک چندگانه ، به خاطر ویژگی های خاص این تبدیل که می تواند در کابردهای پردازش تصویر سودمند بوده می باشد. بدین منظور به معرفی مفاهیم نهان نگاری ، علی الخصوص نهان نگاری تصاویر دیجتال ، تبدیل موجک و تبدیل موجک چندگانه  می پردازیم . سپس در ادامه تحقیق الگوریتمی جهت نهان نگاری تصاویر دیجیتال با به کار گیری تبدل موجک چند گانه عرضه می گردد و در انتها به ارزیابی الگوریتم پیشنهادی  با استفاده از معیار های ارزیابی رایج می پردازیم .

ادامه مطلب...
پایان نامه کاربرد مهندسی معکوس نرم افزار در تحلیل ویروسهای کامپیوتری

چکیده :

در صنعت نرم افزار ، مهندسی معکوس یعنی تکنیک های کالبد شکافی یک برنامه نرم افزاری و بررسی روابط درونی آن به منظور تکمیل اطلاعات  در  مورد  ساختار و عملکرد برنامه یک پروسه پیچیده و زمانبر است و معمولا تنها زمانی که روش و یا منبع دیگری برای بدست  آوردن اطلاعات مورد نیاز در مورد یک نرم افزار موجود نباشد به کار می رود .

یک نمونه از کاربرد های مهم ان استفاده از تکنیک های مهندسی معکوس نرم افزار در تجزیه و تحلیل نرم افزار های مخرب یا به عبارت دیگر بد افزار ها می باشد . که هدف از این تحقیق نیز مطالعه این تکنیک ها و چگونگی استفاده از انها توسط توسعه دهندگان نرم افزار  های ضد ویروس می باشد .

در فصل اول  این تحقیق به بیان مفهوم مهندسی معکوس نرم افزار و کاربرد های گوناگون آن در صنعت نرم افزار پرداخته و سپس در فصل دوم روش ها و مراحل گوناگون پروسه مهندسی معکس و ابزار های مرتبط با آن را بیان می کنیم . در فصل سوم نیز بررسی مباحث  مرتبط باویروس هخای کامپیوتری از دیدگاه مهندسی معکوس نرم افزار پرداخته و در فصل چهارم برای روشنتر شدن مباحث  فصل های  پیشین با بررسی یک تروجان چگونگی تجزیه و تحلیل نرم افزار های مخرب با استفاده از تکنیم های مهندسی معکوس نرم افزار را بیان می نماییم .

 تعداد صفحه :76


ادامه مطلب...
پایان نامه طراحی تیم پاسخگویی به رخدادهای امنیتی مالی

پروژه تحقیق کارشناسی ارشد الکترونیکی در رشته فناوری اطلاعات و مدیریت

طراحی تیم پاسخگویی به رخدادهای امنیتی مالی

تعداد صفحات : 72

 

بانکها و سرویسهای تدارک کننده بانکداری جهت حفظ امنیت در مقابل تهدیدهای رایانه ای نیاز به مقابله دارند. اهداف حمله هایرایانه ای  ممکن است متفاوت باشد. حمله کننده ها ممکن است جهت بدست آوردن اطلاعات از حفره های سیستم عامل استفاده نمایند و یا با هویت جعلی وارد سیستم شده و موجبات خرابی سیستم و اطلاعات را فراهم آورند. بنابراین جهت اینکه  بانکداری الکترونیکی از بازدهی و امنیت قابل قبولی برخوردار باشد به نحویکه عملکرد آن علاوه بر صرفه اقتصادی موجبات بروز مشکل و آسیب پذیری اطلاعات را فراهم نیاورد امنیت این سیستم کمک خواهد کرد که سطح بالاتری از اعتماد عمومی هم برای صنعت بانکداری و هم برای مصرف کنندگان و مشتریان کسب و کار حاصل گردد. امروزه با پیشرفت فناوری ابعاد تازه ای در زندگی روزمره افراد پدید می آید که در این راه سیستم های بانکداری الکترونیکی ، خدمات و سرویسهای بانکی الکترونیکی ویژه ای را فراهم آورده است به نحویکه تبادل اطلاعات میان کاربر و بانک عامل، به کمک بانکداری تلفنی و اینترنتی و بانکداری موبایلی، تا اندازه زیادی گسترش یافته است.

با توجه به اینکه در یک مجموعه مالی توجه به رخدادهای امنیتی از اهمیت بالایی برخوردار می باشد سازمانهای مالی و پولی نیازمند توسعه یک برنامه جامع برای ایمن سازی اطلاعات و تاکید بر ماندگاری ساختارهای زیر بنایی خود می باشند. در این تحقیق با مروری بر عملکرد تیمهای پاسخگویی به رخدادهای امنیتی مراحل ایجاد یک تیم پاسخگویی به رخدادهای امنیتی مالی مورد بررسی قرار گرفته است.

ادامه مطلب...
پایان نامه بررسی شبکه های بدنی بی سیم برای کاربردهای پزشکی

بررسی شبکه ­های بدنی بی­سیم برای کاربردهای پزشکی

A Review of Wireless Body Area Networks for Medical Applications

تعداد صفحات : 37

پیشرفت­ های جدید در زمینه ­های مدار های مجتمع، ارتباط بی­سیم، تکنولوژی­های نیمه­ هادی و علم کوچک سازی باعث رشد شبکه حسگر در کاربرد وسیعی از جمله پزشکی و سازمان بهداشت و درمان شده است. از طرفی دیگر افزایش بیماری­ها و هزینه­های درمانی ناشی از آن سبب پیدایش تکنیک­هایی برای حل این مشکلات شده است. یکی از این تکنیک­ها به کارگیری شبکه­های بی­سیم بدنی می­باشد. انتظار می­رودWBAN انقلابی در نظارت­های سلامتی انسان­ها به وجود آورد. اما این تکنولوژی در مراحل اولیه توسعه خود قرار دارد. در این سمینار خلاصه­ای از شبکه­های بدنی بی­سیم ارائه شده است که شامل کاربردها، مزایا و معماری WBAN می­باشد. سپس امنیت در شبکه­های بدنی بی­سیم که شامل سه مرحله رمزنگاری، احراز هویت و تشخیص صحیح خطای انتقال را بیان کرده و تهدیدات امنیتی و انواع حملات در WBAN بررسی می­شوند و چالش­های موجود در WBAN مورد مطالعه قرار می­گیرد.  علاوه بر آن استاندارد­های 802.15.6 که برای شبکه­های WBAN به کار می­رود، مورد مرور و دو قسمت اصلی آن شامل لایه فیزیکی، لایه دسترسی کنترل رسانه(MAC) مورد بحث قرار می­گیرد. از جمله نتایج این تحقیق این است که ما مشاهده کردیم این است که با وجود اینکه توپولوژی ستاره به طور طبیعی برای این شبکه­ها به کار می­رود نشان داده شد که این توپولوژی از لحاظ مصرف انرژی و برقراری ارتباط مطمئن چندان کارا نیست و در عوض توپولوژی چند پرشی عملکرد بهتری دارد .

 

ادامه مطلب...
ارائه یک چارچوب مدیریت دانش برای پیاده سازی موفقیت آمیز سیستم های برنامه ریزی منابع سازمان

ارائه یک چارچوب مدیریت دانش برای پیاده سازی موفقیت آمیز سیستم های برنامه ریزی منابع سازمان

تعداد صفحات :161

چکیده

سیستم های برنامه ریزی منابع سازمانبسته های نرم افزاری جامعی هستند که به صورت راه حل های ارائه شده ای به یکپارچگی همه فرآیندها و حوزه های وظیفه ای موجود در کسب و کار کمک می کنند. مزیت اصلی و اولیه این سیستم ها ایجاد یک بستر نرم افزاری یکپارچه مشترک برای فرآیندهای یکپارچه موجود در کسب و کار مربوطه می باشد.

پیاده سازی بهینه و موفقیت آمیز سیستم های برنامه ریزی منابع سازمانی نیازمند توجه ویژه به تکنولوژی و همچنین عوامل انسانی می باشد و این فرآیند به حدی با مسئله مدیریت دانش گره خورده که موفقیت کلی این نوع از پروژه ها به فعالیت گروهی از کارکنان متبحر و دانش محور وابستگی شدیدی خواهد داشت. مدیریت دانش فرآیند سیستماتیک جستجو، انتخاب، سازماندهی، پالایش و نمایش اطلاعات است، به طریقی که درک کارکنان در زمینه خاصی بهبود و اصلاح شود و سازمان بصیرت و درک بهتری از تجربیات خود کسب کند. پیاده سازی سیستم های برنامه ریزی منابع سازمان فرآیند دشوار و پیچیده ای است که در آن مدیریت تغییرات، ارتباطات و درگیریذینفعان به اندازه مسائل فنی مهم به شمار می آید. با توجه به این موضوع می توان مدیریت دانش را به عنوان پیش شرط اصلی پیاده سازی موفق سیستم های برنامه ریزی منابع سازمان در نظر گرفت. انواع مختلفی از دانش و مهارت ها در هر نقطه از چرخه حیات سیستم های سازمانی مورد نیاز بوده و این دانش در اختیار افراد مختلفی از سازمان قرار گرفته است. مدیران و متخصصین حوزه فناوری اطلاعات در یافته اند که با استفاده از علم مدیریت دانش می توانند به پیاده سازی های موفق تری از سیستم های سازمانی دست یابند. باید توجه داشت که در هر مرحله از چرخه حیات سیستم های سازمانی می توان با اتکاء بر عناصر چرخه مدیریت دانش و شناسایی و از میان برداشتن موانع مدیریت مؤثر دانش شانس دستیابی به موفقیت را افزایش داد. در این تحقیق به ارائه یک چارچوب مدیریت دانش در جهت دستیابی به پیاده سازی موفقیت آمیز سیستم های سازمانی می پردازیم.

 

ادامه مطلب...
پیش بینی قیمت سهم در بورس اوراق بهادار به کمک داده کاوی با الگوریتم های ترکیبی تکاملی

پایان نامه کارشناسی ارشد در رشته ی  مهندسی فناوری اطلاعات (گرایش مدیریت سیستمهای اطلاعاتی)

 پیش بینی قیمت سهم در بورس اوراق بهادار به کمک داده کاوی با الگوریتم های ترکیبی تکاملی

تعداد صفحات :102

 تحقیقات بسیاری جهت پیش بینی قابل قبول و قابل اطمینان به کمک روشهای شبیه سازی، تحلیل سری های زمانی، ترکیب روشهای هوش مصنوعی با روش های تحلیل سری های زمانی و در آخرین آنها ترکیب روشهای داده کاوی و هوش مصنوعی با روش های تحلیل سری های زمانی و الگوریتم های بهینه سازی تکاملی در حوزه قیمت سهم در بازار بورس اوراق بهادار صورت گرفته است. در این تحقیق سعی بر آن شده که در قالب فرایند CRISP داده کاوی و با ارجاع به آخرین تحقیقات صورت گرفته، ترکیب شبکه عصبی مصنوعی و الگوریتم های بهینه سازی تکاملی به عنوان مدل پیش بینی قیمت سهم در بازار بورس اوراق بهادار مورد بررسی قرار گیرد. الگوریتم های بهینه سازی تکاملی ژنتیک، ازدحام ذرات و رقابت استعماری در آموزش شبکه عصبی مصنوعی با داده های سری زمانی کاهش یافته قیمت پنج سهم منتخب از بازار بورس اوراق بهادار تهران به کار گرفته شدند و قابل قبول و قابل اطمینان بودن پیش بینی به کمک شبکه عصبی مصنوعی آموزش دیده با الگوریتم ازدحام ذرات بر اساس مقادیر شاخص میزان خطا (mse) پیش بینی شبکه عصبی مصنوعی مورد اشاره به اثبات رسید. همچنین عدم درک آشوب داده ها توسط الگوریتم یادگیری پیش انتشار خطا به چالش کشیده شد.

 

ادامه مطلب...
بررسی عوامل موثر بر قیمت طلا و ارائه مدل پیش بینی قیمت آن به کمک تکنیک‌های پیشرفته داده کاوی

بررسی عوامل موثر بر قیمت طلا و ارائه مدل پیش بینی قیمت آن به کمک تکنیک‌های پیشرفته داده کاوی

تعداد صفحات :114

 

چکیده

طلا همواره به عنوان فلزی گران بها مورد توجه بشر بوده است، بنابراین پیش بینی قیمت آن از اهمیت فراوانی برخوردار است.بررسی دقیق عوامل موثر در پیش بینی قیمت طلا اهمیت و تاثیر بسزایی در افزایش دقت پیش بینی دارد. در این مطالعه و تحقیق عوامل موثر و بیشتری در مقایسه با تحقیقات قبلی مورد بررسی قرار گرفته است.و از نظر تقسیم بندی زمانی،داده‌های جمع آوری شده به سه دسته روزانه،ماهانه و سالانه تقسیم شدند.آزمایشات انجام شده، نشان داد که دقت پیش بینی ها در این مطالعه، نسبت به مطالعات پیشین، باعث بهبود 2% دقت پیش بینی در روش‌های شبکه‌های عصبی و 7.3% در روش‌های سری زمانی و 5.6% در روش رگرسیون خطی شده است. نتایج حاصله بیانگر کارآمدی عوامل بررسی شده در پژوهش، برای پیش بینی قیمت طلا می‌باشد و نتایج این تحقیق، باعث سودآوری برای افراد،سایر سازمان ها و طلا فروشی ها می‌باشد. و در انتها پیشنهاداتی برای مطالعات آینده ارائه گردیده است.

 

 

ادامه مطلب...
 گسترش ابزارهای خودکار شناسایی الگوهای طراحی با عملیات پالایش و تصحیح برچسب

پایان نامه گسترش ابزارهای خودکار شناسایی الگوهای طراحی با عملیات پالایش و تصحیح برچسب

تعداد صفحات :78

الگوهای طراحی، راه­حل­های اثبات شده و قابل اطمینانی هستند که، برای پاسخ به برخی از مسائل با رخداد مکرر در طراحی نرم افزار شی­گرا، ارائه شده­اند.‌ شناسایی آنها درکد، به منزله بازیابی طرح و هدف مخفی طراح و سهولت در امر نگهداشت­­پذیری است. از آنجاییکه سهولت در نگهداشت­­پذیری سیستم بسیار مهم و اجتناب ناپذیر است، لذا تولید ابزارهای خودکار برای شناسایی الگوها، مورد توجه قرار گرفت. اکثر ابزارهای شناسایی کنونی درصد بازیابی بالایی دارند. اما در شناسایی الگوها، به ویژه با ساختار و عملکرد مشابه، مثبت کاذب بالایی تولید می­کنند. از اینرو عملگر پالایش نیز پیشنهاد شد. پالایش، سعی بر شناسایی مثبت­­های کاذب، و حذف آنها  دارد. در این کار، یک عملگر جدید به نام “تصحیح برچسب” ارائه شده است. این عملگر ابتدا مثبت­های کاذب را شناسایی، سپس بجای اینکه آنها را از خروجی حذف کند، هویت صحیح  آنها را به کمک یک مجموعه معیارجدید معرفی شده در این کار، تشخیص و برچسب مثبت کاذب را تصحیح می­کند­­. خودکارسازی عملگر با داده ­کاوی است. نتایج حاصل از روش ارائه شده، با دقت یادگیری 97.8%  در دسته­بندی “چندبرچسبه”، با متوسط 99.3% در دسته­بندی “یکی درمقابل همه”و متوسط 99.6% در دسته­بندی “دو به دو” خروجی ابزارها را تصحیح می­کند.

ادامه مطلب...
 طراحی سیستم دسته‌بند فازی مبتنی بر بهینه سازی ازدحام ذرات برای تشخیص بیماری دیابت

تعداد صفحات : 124

چکیده

تشخیص بیماری دیابت و یا آگاهی یافتن از احتمال بالای ابتلا به این بیماری همواره کار آسانی نخواهد بود. چرا که این بیماری علائم متعددی را بروز می‌دهد که بعضی از این علائم در سایر بیماری‌های دیگر نیز وجود دارند. بنابراین پزشک برای اتخاذ یک تصمیم مناسب، باید نتیجه‌ی آزمایش‌های بیمار و تصمیم‌هایی که در گذشته برای بیماران با وضیعت مشابه گرفته است، را بررسی کند.

در این پایان نامه از یک الگوریتم دسته‌بندی مبتنی بر قانون برای دسته‌بندی بیماران دیابتی استفاده شده است. برای استخراج قوانین فازی از یک الگوریتم بهینه سازی ازدحام ذرات استفاده شده است. این الگوریتم دارای ویژگی‌هایی است که آن را از سایر الگوریتم مورد استفاده متمایز می‌کند. از جمله‌ی این ویژگی‌ها می‌توان به تابع افزایش تنوع ذرات و تکامل هم‌زمان توابع عضویت و قوانین فازی اشاره کرد. برای ارزیابی کارایی الگوریتم از مجموعه داده‌ی دیابت استفاده شده است. نتایج ارزیابی‌ها نشان می‌دهد که الگوریتم برای مجموعه داده‌ی دیابت دارای کارایی بسیار بالایی می‌باشد. همچنین کارایی الگوریتم پیشنهادی به علت بالا بردن قابلیت تفسیرپذیری دسته‌بند (کاهش تعداد قوانین فازی) بسیار مناسب می‌باشد.

ادامه مطلب...
پایان نامه ارائه یک مدل فرمال برای تحلیل زیر ساخت نرم افزاری در دیتا سنترها

پایان نامه ارائه یک مدل فرمال برای تحلیل زیر ساخت نرم افزاری در دیتا سنترها

تعداد صفحات :212

نیاز بشر به پردازش و ذخیره سازی اطلاعات در دهه های گذشته همواره رشد صعودی و شتابدار داشته است. به گونه ای که حرکت از سیستم های توزیع شده بر روی سوپرکامپیوترهای گران قیمت به شبکه های بسیار پر قدرت و ارزان در مدت نسبتا کوتاهی صورت گرفته است. همچنین نیاز به مدیریت اطلاعات، پردازش، گردش کار و دیگر ابزار مدیریتی همواره رشد فزاینده داشته است. به طبع این نیاز، ساختار سیستم های کامپیوتری در سطوح فنی و مدیریتی نیز رشد کرده و پیچیده تر شده است.

به منظور جوابگویی به این حجم فزاینده درخواست ها و نیاز بازار به منابع پردازش و ذخیره سازی اطلاعات و نیز به منظور ارائه سرویس های مورد نیاز با کیفیت مناسب و قابل رقابت، یکی از بهترین راه های پیشنهاد شده، متمرکز نمودن این منابع و مدیریت صحیح آنها است. به این منظور و برای به حداکثر رساندن کیفیت خدمات و حداقل نمودن هزینه ها یکی از رایج ترین راهکارهای موجود راه اندازی مراکز داده یا دیتا سنتر ها می باشد. در این طرح با آماده سازی زیر ساخت های فیزیکی، امنیتی، شبکه ای، سخت افزاری و نرم افزاری، مجموعه ای از سرورهای قدرتمند برای ارائه سرویس های مورد نیاز مشتریان در نظر گرفته می شود. این سرورها با خطوط بسیار پر سرعت بر حسب نیاز به اینترنت یا شبکه های سازمانی متصل می گردند و با نصب سیستم های عامل و نرم افزارها و سرویس های مورد نیاز به کاربران خدمات لازم را ارائه می نمایند. با وجود چنین مراکزی دیگر سازمان ها و مراکز تجاری، صنعتی، دانشگاهی و غیره نیازی به راه اندازی مراکز سرویس دهی محلی و نیز متحمل شدن هزینه های نگهداری، به روز رسانی و استخدام متخصصین نخواهند داشت. در ادامه به بررسی اجمالی دیتا سنترها خواهیم پرداخت تا بتوانیم طرح پیشنهادی را تشریح نمائیم.

تعریف دیتا سنتر: مجموعه ای از سیستمهای پشتیبانی (از جمله زیر ساخت سخت افزاری passive، زیرساخت خنک کننده، زیر ساخت تامین انرژی، اطفاء حریق و غیره)، منابع پردازشی سخت افزاری شامل سرورها، تجهیزات زیرساخت شبکه، زیرساخت ذخیره سازی داده ها و زیرساخت نرم افزاری شامل ابزار یک پارچه سازی، مجموعه ای از سیستم های عامل، مجموعه ای از نرم افزارهای کاربردی شامل سرویس ها، تعدادی پایگاه داده، مجموعه ای از ابزارهای امنیتی نرم افزاری و سخت افزاری و یک ساختار مدیریتی است. این سیستم به کمک خطوط پرسرعت به شبکه های خارجی (Intranet، Extranet یا اینترنت) متصل است .

با توجه به رشد نیازها و احتیاج کاربران به انعطاف پذیری و تحمل خطای بالا در این مراکز پردازشی، در سال های اخیر تکنولوژی مجازی سازی به عنوان پاسخی به این نیازها و بهترین شیوه یکپارچه سازی ارائه شده و بسیار رشد کرده است. در حقیقت، این تکنولوژی به عنوان لایه مدیریت نرم افزاری و سیستم عاملی دیتا سنتر مورد استفاده قرار می گیرد. در ادامه به تشریح تکنولوژی مجازی سازی و نحوه استفاده از آن در این طرح خواهیم پرداخت.

تکنولوژی مجازی سازی یکی از جوانترین نظریه های مطرح شده در علم کامپیوتر می باشد که در ده سال اخیر توجه زیادی را به خود جلب نموده است. این تکنولوژی از این بابت بسیار جذاب است که انعطاف پذیری و امکانات خارق العاده ای را بر روی همان بستر سخت افزاری موجود ارائه می دهد و استفاده از آن هزینه بسیار ناچیزی برای سازمان دارد.

ادامه مطلب...
دانلود پایان نامه جستجوی الگوهای نوظهور با ویژگی های جریانی

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر 

گرایش : هوش مصنوعی

عنوان : جستجوی الگوهای نوظهور با ویژگی های جریانی

تعداد صفحه :138

چکیده

استخراج الگوهای مفید از مجموعه داده ها، یکی از موضوعات چالش برانگیز در داده کاوی است. از طرفی در داده ها با ابعاد بالا، استخراج مجموعه کوچکی از الگوهای نوظهور با قابلیت پیش بینی قوی، از مسائل مهم در ایجاد یک کلاسه بند بر پایه الگوهای نوظهور است. در دنیای واقعی، ویژگی ها همیشه بطور کامل در دسترس نیستند؛ بر این اساس، مسئله سخت تر می شود وقتی که مجموعه ویژگی ها قبل از شروع فرآیند یادگیری ناشناخته باشد. ویژگی های جریانی عنوان ویژگی هایی است که بصورت برخط تولید می شوند و در همان زمان تولید پردازش می شوند. در این طرح، ویژگی ها یکی یکی به مرور زمان پدیدار می شوند بجای اینکه تمام ویژگی ها قبل از فرآیند یادگیری آماده باشند.

در این مطالعه، ما ساختار دینامیک از درخت الگوی مکرر پیشنهاد می دهیم تا درخت به محض ورود ویژگی های جدید ساخته شود و استخراج الگوهای نوظهور بصورت برخط صورت گیرد. DFP-SEPSF، یک روش موثر پایین به بالا ارائه می دهد تا یک درخت الگوی مکرر دینامیک نامرتب UDFP-tree و یک درخت الگوی مکرر دینامیک مرتب ODFP-tree بسازد. اولین روش ترتیب آیتم ها را در نظر نمی گیرد، در حالیکه دومین روش ترتیب آیتم ها را اعمال می کند.

بعلاوه، چارچوب پیشنهادی الگوهای نوظهور قوی را استخراج می کند تا یک کلاسه بند قوی و سریع ایجاد کند که می تواند با نویز مقابله کند.

روش پیشنهادی فضای جستجوی الگوهای نوظهور را بطور قابل توجهی کاهش می دهد و الگوهای نوظهور با قدرت تمایز قوی را با کمک حذف الگوهای بی فایده استخراج می کند.

روش ارائه شده الگوهای نوظهور را برای هر کلاس بصورت همزمان کشف می کند و بعلاوه، فرآیند تولید درخت های الگوی مکرر را بصورت کارایی در راستای کاهش محاسبات، هدایت می کند.

ارزیابی تجربیات ما بر روی محدوده وسیعی از داده ها، اثربخشی روش پیشنهادی را در مقایسه با دیگر روش های شناخته شده از نظر دقت پیش بینی، تعداد الگوهای استخراجی و زمان اجرا نشان می دهد.

ادامه مطلب...
پایان نامه ارائه مدلی جهت چابک سازی معماری سازمانی با استفاده از چارچوب توگف

پایان نامه کارشناسی ارشد در مهندسی فناوری اطلاعات (مدیریت سیستم‌های اطلاعاتی)

ارائه مدلی جهت چابک سازی معماری سازمانی با استفاده از چارچوب توگف

تعداد صفحات : 200

چکیده

از زمان ظهور معماری سازمانی، چارچوب‌های متعددی برای معماری سازمانی معرفی شده است و هریک به نوعی به توصیف سازمان پرداخته‌اند. چارچوب‌های اولیه بدون توجه به نوع کسب‌وکار و ذینفعان آن و براساس دانش صریحی که از کسب‌وکار وجود داشت، بنا شده بودند و کمتر به آنچه در بستر سازمانی خاص در جریان بود و رویدادهای نوظهور و پیش‌بینی نشده، توجه داشتند. با گذر زمان، تغییرات فزاینده محیطی و ایجاد فضای رقابتی شدید برای سازمان، ادامه حیات سازمان، مستلزم یافتن راه‌حلی برای جلب رضایت ذینفعان آن می‌باشد. مفهوم چابکی با هدف مواجهه با شرایط نوظهور، متغیر و فاقد قطعیت از طریق ایجاد پویایی، انعطاف و تطبیق‌پذیری‌ مطرح شده است. هدف از این تحقیق ارائه مدلی برای چابک‌سازی فرآیند معماری سازمانی می‌باشد. در این راستا ابتدا معماری سازمانی، اهداف و اصول معماری چابک و سپس چارچوب توگف به عنوان محور تحقیق بررسی می‌شوند و سپس به فرآیند برنامه‌ریزی راهبردی و ضرورت همراستایی راهبردی در سازمان می‌پردازیم و در نهایت براساس ویژگی‌های ذکر شده برای روش‌های چابک و همزمانی فرآیند معماری سازمانی و فرآیند برنامه‌ریزی راهبردی در سازمان، مدلی برای چابک‌سازی فرآیند معماری سازمانی ارائه می‌کنیم.

ادامه مطلب...
پایان نامه ترکیب وب سرویس‌ها مبتنی بر معیار‌های کیفیت سرویس‌ با استفاده از رویکرد فرا مکاشفه‌ای

تعداد صفحه : 128

چکیده فارسی

با رشد و گسترش معماری سرویس گرا و افزایش روز افزون تعداد وب سرویس‌ها، تقاضا برای استفاده از آن‌ها رشد چشمگیری داشته است. برای پاسخگویی به اکثر فرایندهای تجاری و کسب و کارهای نسبتا پیچیده ممکن است یک سرویس منفرد وجود نداشته باشد، بنابراین بایستی چند سرویس را با یکدیگر ترکیب نموده تا سرویس مناسبی به وجود آید. ترکیب وب سرویس‌ها یکی از مهم‌ترین مسائل در حوزه معماری سرویس گرا می‌باشد هر وب سرویس ممکن است پیاده سازی‌های متفاوت با عملکرد‌های مشابه‌ای داشته باشد اما آن چیزی که موجب تمایز بین سرویس‌های مشابه می‌شود، معیارهای کیفیت سرویس است. در این تحقیق مسئله ترکیب وب سرویس‌ها  با توجه به معیارهای کیفیت سرویس مورد بررسی قرار گرفته و معماری برای ترکیب خودکار وب سرویس‌ها ارائه شده است که در آن در ابتدا کاربران نیازهای عملیاتی و غیرعملیاتی خود را توسط یک واسط کاربری وارد سیستم می‌کنند در ادامه رویکرد فرا مکاشفه‌ای برای ترکیب وب سرویس‌ها توسعه داده شده است تا در یک زمان معقول بهینه‌ترین ترکیب برای برآورده سازی نیازهای کاربران را بیابیم. برای ترکیب وب سرویس‌ها از سه رویکرد فرا مکاشفه‌ای استفاده کردیم; (1) رویکرد جریان آب که دارای اندازه پویای عامل‌های حل است تا ضعف‌های رویکرد‌های جمعیت گرا و نقطه گرا را پوشش دهد، (2) رویکرد رقابت استعماری و (3) رویکرد ژنتیک. هر یک از رویکرد های ارائه شده توسط زبان برنامه نویسی c# پیاده سازی شده و نتایج حاصله از آن‌ها را با یکدیگر مقایسه نمودیم.

ادامه مطلب...
پایان نامه طراحی وضعیتی امن برای بکار گیری اینترنت اشیا در صنعت نفت و گاز

چکیده

صنعت نفت و گاز به عنوان یکی از مهمترین صنایع می باشد که لزوم استفاده از فناوری های جدید در جهت افزایش اثرات مطلوب این صنعت، با تامین ایمنی همه جانبه کارکنان و تجهیزات و تاسیسات ،به صفر رساندن حوادث و آسیب ها از طریق حذف شرایط ناایمن ،ارتقا سلامت افراد و حفاظت از محیط زیست به عنوان سرمایه بشری می باشد .

اینترنت اشیا یکی از مجموعه فناوری های نوین می باشد که می تواند در فرآیند های اکتشاف و تولید ،پالایشگاه ها ،پترو شیمی ،خط لوله ،حمل و نقل و توزیع استفاده شود.استفاده از این فناوری در صنعت نفت و گاز باعث افزایش امنیت کارکنان ،شناسایی مسایل بهداشتی و ایمنی ،بهینه سازی تولید ،تحمل خطا و کاهش هزینه های عملیاتی می شود.

با توجه به اهمیت کاربرد این فناوری در صنایع نفت و گاز نیازمند استفاده از مدلی هستیم که به واسطه استفاده از آن بتوانیم در حد قابل قبولی از امنیت، بکار گیری فناوری اینترنت اشیا را در سطح این صنایع مهم داشته باشیم  به دین منظور به شناسایی فناوری اینترنت اشیا و تکنولوژی های مورد استفاده آن می پردازیم سپس در طی مراحل تحقیق برای ارائه مدل امن دستاوردهای مطالعات و پژوهش هایی را که به منظور ارائه چارچوبی مناسب جهت تدوین معماری اینترنت اشیا است، عرضه می گردد. بدین ترتیب که ابتدا مطالعات گسترده ای بر مبانی نظری انجام ودر ادامه به بررسی چند چارچوب معماری  و معماری امنیت در اینترنت اشیا پرداخته میشود که از بین آنها چارچوب معماری امن سه لایه  را انتخا ب و بامولفه های  ، الزامات ساختار عملیات در صنعت نفت و گاز  باز تعر یف کرده و با در نظر گرفتن  عوامل خارجی اثر گذار بر امنیت چارچوبی جدید در بکارگیری امن اینترنت اشیا در صنعت نفت و گاز ارائه خواهیم داد و در انتها به ارزیابی مدل پیشنهادی می پردازیم

ادامه مطلب...
پایان نامه تحلیل آشکارپذیری روش MOD4 نهان ­نگاری اطلاعات در تصاویر JPEG

چکیده

امروزه امنیت تبادل اطلاعات یکی از مهمترین موضوعاتی است که در کنار مبادله پیامهای محرمانه اینترنتی مطرح می­شود. مخفی سازی اطلاعات، هنر جاسازی داده­ها در فایلهای صوتی، تصویری، فیلم یا متن است که می­تواند نیازهای امنیتی را به شکل آشکـار یا پنهان فراهم کند. پنهان­نگاری یکی از شاخه­های علــم مخفی سازی ­اطلاعات است که هدف اصلی آن رسیدن به یک سطح امنیتی مطلوب درتبادل اطلاعات محرمانه به نحوی که تبادل فایلهـای حاوی اطلاعات محرمانه، بـرای دیگران محسـوس و مشخص نباشد. با پیشــرفت علم نهان­نگاری، مهاجمین تلاش می­کنند بوسیله الگوریتم­های جدید نسبت به انتقال و مبادله اطلاعات محرمانه اقدام کنند. با توجه به کاربرد فراگیر تصاویرJPEG  در ارسال و ذخیره تصاویر دیجیتـالی، می­توان آنرا به عنوان یکی از شئ­های پوشش استفاده نمود.

تاکنون روش­ها و الگوریتم­های مختلفی برای نهان­نگاری اطلاعات در تصاویر JPEG ارائه شده است که هر کدام از این الگوریتم­ها به روش­های گوناگونی(براساس سه پارامتر ظرفیت، مقاومت و شفافیت) اطلاعات محرمانه را در تصاویر جاسازی نموده و تصویر مربوطه را تحت تاثیر خود قرار داده که دارای نقاط قوت و ضعفی می­باشند. قابل ذکر است اکثر این الگوریتم­ها توسط یک یا چند روش­ تحلیل موجود شکسته شده است. یکی از روش­های جدید نهان­نگاری, روش نهان­نگاری Mod4 در حوزه تبدیل تصاویر JPEG می­باشد که اطلاعات محرمانه را با استفاده از الگوریتم خاص خود پنهان و جاسازی می­سازد. تحلیل این الگوریتم موضوع تحقیق حاضر می­باشد.

در تحقیق حاضر الگوریتم نهان نگاری Mod4  توسط تعدادی از روش­های تحلیل از جمله هیستـوگـرام کلی(Global histogram)، هیستوگرام مربوط به برخـی از فرکانس­های خاص (Individual histogram)، هیستوگرام مربوط به برخی از مقادیر (Dual histogram)، RS، جفت مقدارها، Chi-square، Blockiness تست و آزمایش گردید و مشخص گردید این الگوریتم در مقابل روش­های تحلیل موجود  از خود مقاومت نشان داده و شکسته نمی­گردد. همچنین مشخص گردید که الگوریتم مورد بحث تحقیق حاضر، آمارگان مرتبه اول ضرایب DCT(Average) و آمارگان مرتبه دوم ضرایب DCT(Autocorrelation) را حفظ می­نماید که گویای امنیت بالای آن است. لذا جهت تحلیل و آشکارسازی این الگوریتم، از ماتریس مورد استفاده در الگوریتم نهان­نگاری Mod4 کمک گرفته شد و براساس آن نرم­افزاری تهیه و بصورت پیشنهادی ارائه گردید که می­تواند درحدود 70 درصد از تصاویر مشکوک(شناسائی تصویر پاک از تصویر نهان شده) را شناسایی نماید.

ادامه مطلب...
پایان نامه حل مسئله زمانبندی سیستم باز با الگوریتم ژنتیک چند جمعیتی با در نظر گرفتن نگهداری ماشین

حل مسئله زمانبندی سیستم باز با الگوریتم ژنتیک چند جمعیتی با در نظر گرفتن نگهداری ماشین

تعداد صفحات :106

چکیده:

مسئله زمانبندی سیستم باز یک مسئله زمانبندی مهم و جهانی است و این مسئله به طور وسیع در صنعت کاربرد دارد. مسئله زمانبندی سیستم باز جزء مسائل سخت است. مسئله زمانبندی سیستم باز فضای راه حل آن به طور قابل ملاحظه ای بزرگتر از مسئله زمان‌بندی مغازه کارها است و به نظر می رسد که در کتاب ها و مقالات به آن کمتر توجه شده است. استفاده از روش های کلاسیک برای بدست آوردن جواب بهینه در این مسائل‌دارای پیچیدگی زمانی بالایی است و دربرخی از موارد غیرممکن است درنتیجه برای حل این مسائل بیشتر از روش های ابتکاری استفاده می شود. هدف مسئله زمانبندی سیستم باز بدست آوردن یک ترکیب امکان پذیر از سفارشات ماشین و کار تعیین شده است که زمان کلی اتمام کارها در کمترین زمان ممکن باشد. در بین مقالات مختلفی که در زمینه حل مسئله زمانبندی سیستم های باز ارائه شده است، هیچکدام پارامتر نگهداری ماشین ها را درنظر نگرفته اند و این درحالیست که در عمل، ماشین آلات موجود در کارخانجات بنا به دلایل مختلف دچار آسیب و خرابی در حین انجام کار می‌شوند که این امر خسارات فراوانی از جمله اتلاف زمان، و هزینه های اضافی در جهت اجرای مجدد فرایند نیمه کاره را به همراه دارد. در این پایان نامه یک روش جدید برای حل مسئله زمانبندی سیستم های باز با استفاده از الگوریتم ژنتیک ارائه شده است که مسئله نگهداری ماشین ها را نیز در نظر می گیرد. در الگوریتم پیشنهادی با استفاده از عملگرهای متنوع در کنار هدفمند کردن انتخاب کروموزوم برای کارایی هر چه بیشتر الگوریتم تلاش شده است و نتایج تجربی نشان دهنده کارایی بیشتر الگوریتم پیشنهادی در مقایسه با دیگر الگوریتمها می باشد.

 

ادامه مطلب...
ارائه نحوه بکارگیری تجهیزات ITS برای بهینه سازی منابع و امکانات در مدیریت بار و حمل ونقل جاده ای

پایان نامه کارشناسی ارشد در رشته مهندسی فناوری اطلاعات(مدیریت سیستم های اطلاعاتی)

عنوان پایان نامه:ارائه نحوه بکارگیری تجهیزات ITS برای بهینه سازی منابع و امکانات در مدیریت بار و حمل ونقل جاده ای مطاله موردی (بهبود سامانه درگاه ملی بار با بکارگیری سیستم های اطلاعات مکانی GPS)

تعداد صفحات :136

چکیده:

هدف از این پژوهش بکار گیری تجهیزات حمل و نقل هوشمند (ITS) در مدیریت ناوگان باری است . برای این منظور به نقد , بررسی و بهبود سامانه درگاه ملی بار که هم اکنون در اختیار سازمان راهداری و حمل و نقل جاده ای است پرداخته و در این راستا سند نیاز سنجی مدل بهبود یافته در گاه ملی بار را ارائه نمودیم که به بررسی مسائل و مشکلات موجود در صنعت حمل و نقل و نقشی که تجهیزات ITS در بهبود این صنعت و کمک به مدیریت ناوگان جاده ای دارند, پرداخته ایم . همچنین تاثیر گذار بودن ردیابهای مبتنی بر GPS جهت تشخیص موقعیت مکانی ناوگان در مدل بهبود یافته سامانه درگاه ملی را مورد بررسی قرار داده ایم .در این پژوهش به ارائه سند نیازسنجی سامانه درگاه ملی بار بر اساس تلفیقی از استاندارد های IEEE-729 و نماتن پرداخته و نیازها را از دید کلیه ذینفعان پروژه مورد بررسی قرار داده ایم و ضمن اینکه نیازهای ذی نفعان تشریح شده بر اساس مدل های شی گرا اقدام به تهیه DFD,   USE CASE DIAGRAM, . . . نموده ایم و در ادامه برای ارزیابی آنچه که تغییر داده و یا پیشنهاد شده است با بهره گیری از تکنیکهای تهیه پرسشنامه به روشQUIS چهار نمونه پرسشنامه برای دوگروه مختلف (گروه کارشناسان و گروه رانندگان /شرکت های حمل و نقل) طراحی شد . این دو گروه با سوالاتی متفاوت قبل از تغییرات و بهبود سامانه و سوالاتی بعد از تغییرو بهبود سامانه مورد پرسش قرار گرفتند که نتایج حاصل از این پرسشنامه ها در نرم افزار SPSS با استفاده از آزمون مکنمار مورد تحلیل قرار گرفت که طی نتایج بدست آمده از آزمون مذکور مشخص شد اضافه نمودن امکاناتی از قبیل خدمات رزرو بار , ایجاد کاربر جدید با عنوان گمرکات و . . . به مدل بهبود یافته سامانه باعث خواهد شد که دستیابی به اهداف اصلی پروژه که همان کاهش سفرهای یکسر خالی , ترغیب کاربران به استفاده از این سامانه , کاهش مصرف سوخت , کاهش استهلاک جاده و ناوگان , افزایش درامد رانندگان و شرکتهای حمل و نقل , کاهش دلال گری , بهبود تصمیم گیری و . . . میسر گردیده است.

 

ادامه مطلب...
پیش پردازش داده های نا متوازن با استفاده از ماشین بردار پشتیبان

عنوان:پیش پردازش داده های نا متوازن با استفاده از ماشین بردار پشتیبان

تعداد صفحات :115

چکیده:

برای دست یابی به نتایج مطلوب در داده کاوی نیاز به پیش پردازش داده ها داریم.پیش پردازش داده ها یکی از اجزای مهم در فرایند کشف دانش است.روش های بسیاری برای پیش پردازش داده وجود دارد که می­توان از آنها استفاده کرد.اما این روش ها برای داده های نامتوازن مناسب نیستند. اصطلاح “مجموعه داده نامتوازن” عموما به مجموعه داده‌ای گفته می‌شود که در آن تعداد نمونه‌هایی که نمایانگر یک کلاس هستند از نمونه‌های دیگر در کلاس‌های متفاوت کمتر است مشکل عدم توازن کلاس در بسیاری از برنامه های کاربردی جهان واقعی به رسمیت شناخته شده است و موضوع تحقیقات یادگیری مبتنی بر ماشین قرار گرفته است از این رو اخیراً مشکل نامتوازن بودن کلاسها مورد توجه محققان در زمینه ی داده کاوی قرار گرفته است.آنها به دنبال کشف روش هایی بودند که با اعمال بر روی داده های نامتوازن به نتایج مطلوبی دست یابند.

در این پروژه روش های گوناگون پیش پردازش داده های نامتوازن مورد بحث قرار گرفته و الگوریتم جدیدی برای بهبود نتایج طبقه بندی ارائه می­شود، به گونه ای که کارایی و دقت آن مورد توجه باشد.

 


ادامه مطلب...
ارائه مدلی امن برای سیستم­های مدیریت فرآیند کسب­ و­کار در محیط­ های سرویس­ گرا

پایان­ نامه مقطع کارشناسی ارشد

رشته: مهندسی فناوری اطلاعات گرایش مدیریت سیستم­های اطلاعاتی

عنوان/ موضوع:ارائه مدلی امن برای سیستم­های مدیریت فرآیند کسب­ و­کار در محیط­ های سرویس­ گرا

تعداد صفحات :159

چکیده:

سیستم‌های مدیریت فرآیند کسب­و­کار با فراهم نمودن امکان طراحی و اصلاح مدل‌های کسب‌ و کار، امکان بهینه‌سازی مدل‌های کسب و کار را در سطح مدیریت، بدون نیاز به برنامه‌نویسی­ و یا حداقل برنامه‌نویسی مورد نیاز فراهم کرده و باعث افزایش سرعت انجام فرآیندهای سازمان، کاهش هزینه، افزایش سرعت به­روزرسانی و… می‌شوند. معماری مبتنی بر سرویس حالت بلوغ یافته معماری مبتنی بر اجرا، طراحی مبتنی بر واسطه و سیستم­های توزیع شده است که رویکرد بسیاری از سیستم‌های مدیریت فرآیند فراهم نمودن زیرساخت مورد نیاز معماری‌های سرویس‌گرا است. در بسیاری از سیستم­ها، پیاده­سازی فرآیندها به شکل سرویس­هایی در نظر گرفته می­شود که تحت پوشش معماری سرویس­گرا قرار میگیرند. بنابراین از معماری سرویس­گرا به عنوان یک چارچوب استاندارد با هدف افزایش چابکی در راستای واکنش سریع به تغییرات نیازمندی­های کسب­و­کار استفاده می­کنیم.

ویژگی باز بودن و انعطاف­پذیری معماری سرویس­گرا باعث به وجود آمدن چالش­های جدیدی در خصوص امنیت فرآیندهای کسب­و­کار شده است، چرا که سر­ و کار داشتن با شرایط غیرمنتظره در زمان اجرا می­تواند سبب بروز این مشکلات شود.

لذا در این پایان نامه از چرخه­حیات سیستم­های مدیریت فرآیند کسب­ و­کار و معماری سرویس­گرا با لحاظ نمودن ویژگی­های امنیتی برای ارائه مدل امن در سیستم­های مدیریت فرآیند کسب­ و­کار سرویس­گرا استفاده می­کنیم.

در ادامه ابتدا به بررسی ادبیات موضوع در جند حوزه مفاهیم اولیه معماری سرویس­گرا، امنیت و سیستم­های مدیریت فرآیند کسب­و­کار پرداختیم. سپس کارهای انجام شده در زمینه معماری سرویس­گرا و مدیریت فرآیند کسب­و­کار بررسی می نماییم. در فصول آتی رویکرد مورد استفاده در تحقیق مطرح می­شود، در این راستا چرخه حیات و معماری لایه ­ای مرتبط با مدل پیشنهادی را ارائه می­دهیم. نهایتاً مدل پیشنهادی در قالب یک مطالعه موردی مورد بحث و بررسی قرار گرفته و از دیدگاه ­های مناسب ارزیابی شده است؛ و در ادامه نتایج تحقیق و کارهای آتی بیان شده است.

 

ادامه مطلب...
 ارائه یک چارچوب استراتژیک برای نظام مبادلات پیمانکاری فرعیspx در سازمان های بزرگ مقیاس سرویس گرا

ارائه یک چارچوب استراتژیک برای نظام مبادلات پیمانکاری فرعیspx در سازمان های بزرگ مقیاس سرویس گرا

تعداد صفحات :162

چکیده:

در سازمان بزرگ مقیاس به دلیل گستردگی حیطه مسئله، با واحد ها و ارتباطات زیادی مواجهه هستیم. به کارگیری نظام مبادلات پیمانکاری فرعی(spx) به ارتقای این واحدها کمک میکند و با کاهش هزینه های سرمایه گذاری و جلوگیری از گسترش بی رویه واحدها و بعضاً با تعطیل کردن پاره ای از بخش­های خط تولید و سپردن کار تولید قطعه ها و حتی بخش طراحی و مونتاژ کالا به واحدهای دیگر، حجم تولید را تا چند برابر افزایش می­دهند و می توانند بیشترین نوآوری و تنوع را به تولیدات خود بدهند. این سازمان ها امروزه به سمت معماری سرویس گرا روی آورده اند، که رویکردی برای سرعت بخشیدن در انجام فرآیندهای سیستم اطلاعاتی و بهبود یکپارچگی می باشد. در این تحقیق،یک چارچوب استراتژیک برای نظام مبادلات پیمانکاری فرعی درسازمان بزرگ مقیاس سرویس گرا که ارتباط واحدها از طریق سرویس می باشد ارائه شده است تا برنامه ریزی و مدیریت واحدها تسهیل یابد و بدین ترتیب کار سازمان سریع تر و دقیق تر انجام شود.

 

ادامه مطلب...
 ارائه یک روش جدید برای مکان­یابی و همزمان­سازی توامان در شبکه­ های حسگر بی­سیم زیر آب

ارائه یک روش جدید برای مکان­یابی و همزمان­سازی توامان در شبکه­ های حسگر بی­سیم زیر آب

تعداد صفحات :117

چکیده:

مکان­یابی و همزمان­سازی از عناصر کلیدی در بسیاری از برنامه­های کاربردی ارتباطی زیرآب هستند که علی­رغم وابستگی بسیار، معمولا جدا از هم عمل می­کنند. اما از آنجا که سرویس­های همزمان­سازی پیش­نیاز الگوریتم­های مکان­یابی هستند و اطلاعات در رابطه با مکان حسگرها برای تخمین تاخیر انتشار مورد استفاده قرار می­گیرند، مکان­یابی و همزمان­سازی را می­توان در کنار هم انجام داد. از مزایای این روش می توان به صرفه جویی قابل توجه در مصرف انرژی که ناشی از کاهش تعداد مبادلات پیام می­باشد اشاره کرد.

در این پایان ­نامه یک روش جدید ترتیبی شامل پنج فاز تعیین موقعیت اولیه، تدریجی کردن حرکت حسگر، تخمین انحراف ساعت و اریب زمان­سنجی، جبران اثر لایه ­بندی و مکان­یابی همراه با پالایش تکرار، برای انجام همزمان­سازی و مکان­یابی توامان در شبکه­ های حسگر بی­سیم زیرآب ارائه شده است. در این روش علاوه بر در نظر گرفتن حرکت حسگرها، عدم حرکت امواج صوتی زیرآب در یک مسیر مستقیم و تغییرسرعت انتشار این امواج در عمق­های مختلف در نظر گرفته شده است. روش پیشنهادی در این پایان نامه با نرم­افزار مطلب شبیه سازی شده و نتایج با یک روش معیار مناسب و همچنین مرز پایین کرامر رائو مقایسه شده­اند. نتایج نشان می­دهند که روش ارائه شده دارای کارایی نزدیک به کران پایین کرامر رائو می­باشد و نسبت به روش معیار، بهتر عمل می­کند. قابل به ذکر است که روش پیشنهادی نسبت به روش­های پیشین بار محاسباتی بیشتری را به شبکه اعمال می­کند و مناسب جهت کاربردهایی می­باشد که به دست آوردن اطلاعات دقیق نسبت به مصرف انرژی از اهمیت بیشتری برخوردار باشد.


ادامه مطلب...
پایان نامه ارائه مدلی برای سیستم­های توصیه گر در شبکه های مبتنی بر اعتماد

پایان ­نامه کارشناسی ارشد در رشته مهندسی فناوری اطلاعات (مدیریت سیستمهای اطلاعاتی)

عنوان:ارائه مدلی برای سیستم­های توصیه گر در شبکه های مبتنی بر اعتماد

تعداد صفحات :149

چکیده:

امروزه با گسترش و رشد روز افزون اطلاعات در فضای مجازی و وجود انبوهی از کالا یا خدماتی که در وب سایتهای تجاری و خدماتی ارائه می­گردند کاربران را با این مشکل مواجه نموده است که چگونه کالا یا خدمت مورد نظر خود را به راحتی و با صرف کمترین زمان ممکن بیابند. در این میان سیستمهای توصیه­گر با هدف تسهیل و یاری رساندن به کاربران در زمینه انتخاب و یافتن کالای مورد نیاز ایشان با استفاده از علوم و روشهای مبتنی بر داده کاوی اطلاعات، ایجاد و توسعه یافته­اند. همچنین در سالهای اخیر ظهور و گسترش شبکه­های اجتماعی و شبکه­های مبتنی بر رابطه اعتماد میان کاربران، باعث گشوده شدن افق جدیدی در ارائه سیستمهای توصیه­گر و توسعه نسل جدیدی از اینگونه سیستمها گردیده است و آنرا به یکی از موضوعات جذاب و مورد توجه محققان تبدیل نموده است.

از میان روشها و مدل­های موجود در زمینه سیستمهای توصیه­گر روش پالایش گروهی به لحاظ سادگی پیاده­سازی از محبوبیت قابل ملاحظه­ای برخوردار است اما این روش در ارائه پیشنهادات مناسب و قابل قبول به کاربران تازه وارد دارای ضعف­های جدی می­باشد. سیستمهای توصیه ­گر مبتنی بر اعتماد، با بهره­گیری از رابطه اعتماد میان کاربران، در جهت رفع نقاط ضعف بیان شده و خصوصا ارائه پیشنهادات مناسب به کاربران تازه وارد گامهای موثری برداشته­اند. در این تحقیق سعی شده است تا از تلفیق و ترکیب روش­های موجود در زمینه پالایش گروهی و همچنین مدلهای مبتنی بر اعتماد و بررسی نقاط ضعف و قوت آنها مدلی نوین و توسعه یافته ارائه گردد که در آن نتایج از خطای کمتر و دقت بالاتری برخوردار بوده و با افزایش معیار پوشش بتوان به درصد بیشتری از کاربران پاسخ مناسب ارائه نمود. برای این منظور در میان انواع روشهای پالایش گروهی، روش مبتنی بر آیتم و برای پیمایش شبکه اعتماد میان کاربران نیز از روش پیمایش تصادفی بهره گرفته شده است، همچنین با تفسیر و تعدیل نظرات کاربران و اتخاذ شیوه­ای مناسب جهت محاسبه مقدار دقیق اعتماد میان کاربران و تغییر در نحوه پیمایش شبکه اعتماد میان ایشان سعی در بهبود و کاهش خطاهای نتایج گردیده است. در نهایت، جهت ارزیابی و برآورد مدل ترکیبی ارائه شده، نتایج و آمارهای حاصل از اجرای مدل پیشنهادی بر روی مجموعه داده های Epinions و Movielens و مقایسه آنها با نتایج مدل پایه TrustWalkerبه عنوان یکی از بهترین مدلهای ترکیبی ارائه شده در زمینه سیستمهای توصیه گر مبتنی بر اعتماد، ارائه می­گردد.

ادامه مطلب...
پایان نامه بهینه سازی خوشه ها با استفاده از الگوریتم های تکاملی برای شخصی سازی وب

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

گرایش : نرم افزار

عنوان : بهینه سازی خوشه ها با استفاده از الگوریتم های تکاملی برای شخصی سازی وب

تعداد صفحات : 82

چکیده:

گرانبار شدن اطلاعات یک مشکل عمده در وب کنونی به شمار می­رود. برای مقابله با این مشکل، سیستم‌های شخصی­ سازی وب ارائه شده­ اند که محتوا و سرویس­ های یک وب­ سایت را با افراد براساس علایق و رفتار گردشی آن­ها سازگار می­کنند. یک مؤلفه­ی اساسی در هر سیستم شخصی­سازی وب، مدل کاربر آن است. هدف از شخصی سازی وب، مهیا ساختن محتوا و سرویس ­های مورد نیاز کاربران به وسیله دانش به دست آمده از تعاملات قبلی کاربران در صفحات وب است. در حال حاضر، برای شخصی­ سازی وب چندین متد خوشه­ بندی در دسترس است. روش­هایی که تاکنون ارائه شده ­اند، در مواردی دارای اشکالاتی بودند. البته تکنیک­ های جدیدی در رفع این مشکلات و بهبود آنها ارائه شده است. اما در بیشتر این تکنیک­ها، مسائل افزونگی داده و مقیاس­ بندی بالا وجود دارد. با توجه به اینکه افزایش کاربران وب منجر به افزایش اندازه‌ی خوشه می‌گرد، نیاز به بهینه‌سازی خوشه‌ها اجتناب‌ناپذیر خواهد بود. در تحقیق، یک متدولوژی بهینه سازی خوشه بر اساس سیستم فازی ارائه شده است. به منظور افزایش دقت نهایی خوشه­ بندی، برای تنظیم پارامترهای توابع عضویت از الگوریتم ژنتیک استفاده شده است. نتایج حاصل از شبیه‌سازی نشان می‌دهد که روش پیشنهادی دقت خوشه­ بندی صفحات وب را تا حد قابل توجهی افزایش می­دهد.

فصل اول: کلیات تحقیق

1-1- مقدمه

با توسعه سیستم‌های اطلاعاتی، داده به یکی از منابع پراهمیت سازمان‌ها مبدل گشته است. بنابراین روش‌ها و تکنیک‌هایی برای دستیابی کارا به داده، اشتراک داده، استخراج اطلاعات از داده و استفاده از این اطلاعات، مورد نیاز می‌باشد. با ایجاد و گسترش وب و افزایش چشم گیر حجم اطلاعات، نیاز به این روش‌ها و تکنیک‌ها بیش از پیش احساس می‌شود. وب، محیطی وسیع، متنوع و پویا است که کاربران متعدد اسناد خود را در آن منتشر می‌کنند. در حال حاضر بیش از دو بیلیون صفحه در وب موجود است و این تعداد با نرخ 7.3 میلیون صفحه در روز افزایش می‌یابد. با توجه به حجم وسیع اطلاعات در وب، مدیریت آن با ابزارهای سنتی تقریباً غیر ممکن است و ابزارها و روش­هایی نو برای مدیریت آن مورد نیاز است. به طور کلی کاربران وب در استفاده از آن با مشکلات زیر روبرو هستند:

1- یافتن اطلاعات مرتبط: یافتن اطلاعات مورد نیاز در وب دشوار می‌باشد. روش‌های سنتی بازیابی اطلاعات که برای جستجوی اطلاعات در پایگاه داده‌ها به کار می‌روند، قابل استفاده در وب نمی‌باشند و کاربران معمولاً از موتورهای جستجو که مهم­ترین و رایج ترین ابزار برای یافتن اطلاعات در وب می باشند، استفاده می‌کنند. این موتورها، یک پرس و جوی مبتنی بر کلمات کلیدی از کاربر دریافت کرده و در پاسخ لیستی از اسناد مرتبط با پرس و جوی وی را که بر اساس میزان ارتباط با این پرس و جو مرتب شده اند، به وی ارائه می­کنند. اما موتورهای جستجو دارای دو مشکل اصلی هستند (Baeza-Yates, 2004). اولاً دقت موتورهای جستجو پایین است، چراکه این موتورها در پاسخ به یک پرس و جوی کاربر صدها یا هزاران سند را بازیابی می‌کنند، در حالی که بسیاری از اسناد بازیابی شده توسط آنها با نیاز اطلاعاتی کاربر مرتبط نمی‌باشند (Bharat, and et. al., 2001). ثانیاً میزان فراخوان این موتورها کم می‌باشد، به آن معنی که قادر به بازیابی کلیه اسناد مرتبط با نیاز اطلاعاتی کاربر نیستند. چرا که حجم اسناد در وب بسیار زیاد است و موتورهای جستجو قادر به نگهداری اطلاعات کلیه اسناد وب، در پایگاه داده‌های خود نمی‌باشند (Chakrabarti, and et. al., 1999).

2- ایجاد دانش جدید با استفاده از اطلاعات موجود در وب: در حال حاضر این سوال مطرح است که چگونه می‌توان داده‌های فراوان موجود در وب را به دانشی قابل استفاده تبدیل کرد، به طوری که یافتن اطلاعات مورد نیاز در آن به سادگی صورت بگیرد. همچنین چگونه می‌توان با استفاده از داده‌های وب به اطلاعات و دانشی جدید دست یافت.

3- خصوصی سازی اطلاعات: از آن جا که کاربران متفاوت هر یک درباره نوع و نحوه­ی بازنمایی اطلاعات سلیقه خاصی دارند، این مسئله باید توسط تأمین­ کنندگان اطلاعات در وب مورد توجه قرار بگیرد. برای این منظور با توجه به خواسته‌ها و تمایلات کاربران متفاوت، نحوه ارائه اطلاعات به آنها باید سفارشی گردد.

تکنیک‌های وب کاوی قادر به حل این مشکلات می‌باشند (Chakrabarti, 2000).

2-1- تعریف مسئله

وب به یک بخش تسلیم نشدنی جهان تبدیل شده است و گشت و گذار وب، یک فعالیت مهم برای مشتریانی که خرید آنلاین دارند، به شمار می­آید (Varghese, 2012). همانطور که گفته شد، با توجه به حجم وسیع اطلاعات در وب، مدیریت آن با ابزارهای سنتی تقریباً غیر ممکن است و ابزارها و روش­هایی نو برای مدیریت آن مورد نیاز است. یکی از این روش­ها وب­کاوی است. به طور کلی وب­کاوی را می­توان داده کاوی بر روی داده­های محتوا، ساختار و کاربرد وب به حساب آورد. هدف وب­کاوی کشف مدل­ها و الگوهای نهفته در منابع وب می­باشد. هدف وب کاوی کاربرد وب به طور خاص کشف الگوهای رفتاری کاربران وب می­باشد. کشف چنین الگوهایی از حجم عظیمی از داده­های تولید شده توسط وب سرورها کاربردهای مهمی دارد (Anand, and Mobasher, 2005). از جمله­ی آن­ها می­توان به سیستم­ هایی که میزان مؤثر بودن یک سایت را در برآوردن انتظارات کاربر ارزیابی می­کنند، تکنیک­ هایی برای متعادل کردن پویای بار و بهینه­سازی وب سرورها برای دستیابی مؤثرتر کاربران و کاربردهای مربوط به ساختاردهی مجدد و تطبیق یک سایت براساس نیازهای پیش بینی شده­ی کاربر اشاره کرد.

کشف استخراج اطلاعات مفید از داده­ی وب یا فایل­های وبلاگ، بهبود کارایی اطلاعات وب و فراهم کردن تکنولوژی برای کاربردهای وب به عنوان مثال، شخصی­سازی و غیره از جمله اهداف دیگر وب­کاوی می­باشد. برای مدیریت تصمیم­گیری، نتیجه کاوش کاربرد وب می­تواند برای تبلیغات، بهبود طراحی وب، بهبود رضایت مشتری، هدایت استراتژی تصمیم آنالیز بازار و سازمان مورد استفاده قرار گیرد (Naveena Devi et al., 2012).

در سال های اخیر تکنیک‌های وب­کاوی کاربرد وب به عنوان رویکردی دیگر که مبتنی بر کاربر است در شخصی­سازی وب ارائه شده است که برخی از مشکلات مربوط به فیلترکردن جمعی را کاهش می­دهد. به طور خاص وب کاوی کاربرد وب برای افزایش گسترش‌پذیری سیستم­ های شخصی­سازی شده­ی سنتی که برمبنای تکنیک­های فیلترکردن جمعی می­باشند استفاده شده است.

شخصی­سازی صفحه وب شامل خوشه­بندی صفحات مختلف وبی است که الگوی مشابهی دارند. شخصی­سازی وب از تکنیک کاربرد وب­ کاوی برای سفارشی کردن صفحات وب برای یک کاربر خاص استفاده می­کند. این مسئله شامل استخراج جلسات کاربر از فایل­های ورود به سیستم می­شود. یک جلسه کاربر، دنباله­ی صفحات وبی که توسط کاربر در یک دوره زمانی خاص مورد دسترسی قرار گرفته، می­باشد.

3-1- اهمیت و ضرورت تحقیق

با رشد ناگهانی اندازه وب و استفاده از وب گسترده جهانی، برای کاربران بسیار مشکل شد که بتوانند به طور مؤثر به اطلاعات مرتبط و مورد علاقه خود دسترسی پیدا کنند. نیاز به پیش­بینی نیازهای کاربر به منظور بهبود قابلیت استفاده و حفظ کاربر سایت، آشکار است و می­تواند با استفاده از شخصی­سازی آدرس­دهی شود. شخصی‌سازی وب، پردازشی از یک سایت برای بر طرف کردن نیاز یک کاربر خاص یا مجموعه­ای از کاربران با استفاده از دانش به دست آمده از طریق تحلیل رفتار گشت و گذار کاربر است. هدف از سیستم شخصی سازی وب، مهیا ساختن اطلاعات و نیازهای کاربران، بدون این که صریحاً از آنها سوالی پرسیده شود.

هر اقدامی که اطلاعات یا سرویس­های فراهم شده توسط یک وب­سایت با نیازهای یک کاربر یا گروه خاصی از کاربران با به کارگیری دانش بدست آمده از رفتار گردشی کاربر و علایق خاص او به صورت ترکیب با محتوا و ساختار وب­سایت سازگار می­کند شخصی ­سازی وب نامیده می­شود (Eirinaki, 2003).

بطور کلی اهداف شخصی­ سازی وب عبارتند از:

– شخصی ­سازی سرویس­های ارائه شده توسط یک وب­سایت نقش مهمی در کاهش گرانبار شدن اطلاعات ایفا می­کند و وب­سایت را به یک محیط کاربر پسندتر برای افراد تبدیل می­کند.

– با فراهم کردن اطلاعات دلخواه کاربر به روش مناسب و در زمان مناسب، باعث بهبود گردش کاربر در وب­ سایت می­شود.

– در تجارت الکترونیکی مکانیزیمی برای درک بهتر نیازهای مشتری، شناسایی تمایلات آینده­ی او و در نهایت افزایش پابرجایی مشتری به سرویس ارائه شده فراهم می­کند.

در سال های اخیر تکنیک‌های وب­کاوی کاربرد وب به عنوان رویکردی دیگر که مبتنی بر کاربر است در شخصی­سازی وب ارائه شده­ است که برخی از مشکلات مربوط به فیلترکردن جمعی را کاهش می­دهند. به طور خاص وب کاوی کاربرد وب برای افزایش گسترش پذیری سیستم­های شخصی­سازی شده­ی سنتی که برمبنای تکنیک­های فیلترکردن جمعی می­باشند استفاده شده است.

به طور نمونه شخصی سازی برروی پردازش شناسایی کاربر وب، جمع آوری اطلاعات از طریق اولویت یا علاقه­مندی های کاربر، تمرکز دارد. به طور مختصر شخصی­ سازی وب می­تواند برای مهیا ساختن سرویس با کیفیت­ تر استفاده شود و برنامه کاربردی از وب را برای کاربران در طول گشت و گذار آنها در وب مهیا سازد. این فعالیت­ها می­ تواند با مشخص کردن لینک­ها و لینک­های جدید مورد علاقه کاربر به صورت اتوماتیک و ایجاد صفحات ایندکس جدید، ساخته شود.

رویکرد تنها مبتنی بر کاربرد در شخصی­سازی وب یک عیب مهم دارد و آن این است که فرآیند توصیه به کاربر تنها براساس داده­های تراکنشی موجود او صورت می­گیرد و از این رو اقلام یا صفحاتی که اخیراً به سایت اضافه شده­اند نمی­توانند به او توصیه شوند. این مشکل عموماً مشکل قلم جدید نامیده می­شود. از سوی دیگر اگرچه الگوهای کشف شده­ی مربوط به کاربرد منابع وب از طریق وب­کاوی کاربرد وب در کشف ارتباطات اقلام با یکدیگر یا کاربران با یکدیگر و نیز تعیین شباهت در جلسات کاربر مفیدند اما بدون استفاده از دانش عمیق­تری از دامنه­ی وب سایت مورد نظر چنین الگوهایی درک اندکی از دلایل آن که چرا اقلام یا کاربران در گروه­ هایی با هم قرار می­گیرند در اختیار ما قرار می­دهند. یک رویکرد معمول برای حل این مشکل در فیلتر کردن جمعی آن است که مشخصات محتوای صفحات را با رتبه ­بندی­ ها و قضاوت­ های کاربر ادغام کنیم. به طور کلی در این رویکردها کلمات کلیدی از محتوای وب­سایت استخراج می­شوند و برای اندیس­گذاری صفحات براساس محتوا یا طبقه­بندی آن­ها به دسته­ های مختلف مورد استفاده قرار می‌گیرند. در حوزه­ی شخصی ­سازی وب این رویکرد به سیستم اجازه می ­دهد تا صفحات را نه تنها براساس افراد مشابه بلکه براساس شباهت محتوایی آن­ها به صفحاتی که کاربر اخیراً بازدید کرده است به او توصیه کند.

یک ضعف عمده در بیشتر رویکردهای موجود که از محتوای وب برای بهبود مدل کاربر استفاده می‌کنند این است که این روش­ها معمولاً از بردار عبارات برای نمایش علایق کاربر استفاده می­کنند و ارتباطات معنایی بین این عبارات را نادیده می­گیرند. در صورتی که می­توان با استفاده از معنا این روش نمایش را بهبود داد.

روش­هایی که تاکنون ارائه شده­اند، در مواردی دارای اشکالاتی بودند. البته تکنیک‌های جدیدی در رفع این مشکلات و بهبود آنها ارائه شده است. اما در بیشتر این تکنیک‌ها، مسائل افزونگی داده و مقیاس‌بندی بالا وجود دارد. الگوریتم­های خوشه­بندی متعددی براساس تکنیک­ های مختلف وجود دارد. بیشتر این الگوریتم ­ها، اشکالات متعددی دارند. همان­طور که اندازه خوشه در طی افزایش کاربران وب افزایش می‌یابد، نیاز به بهینه‌سازی خوشه ­ها اجتناب ناپذیر خواهد بود. در این پایان‌نامه قصد بر آنست تا یک متدولوژی بهینه‌سازی خوشه بر اساس سیستم فازی و الگوریتم ژنتیک ارائه شود.

 

ادامه مطلب...
پایان نامه ارایه روشی برای افزایش کارایی پردازش تصاویر بوسیله مدل نگاشت کاهش

عنوان:ارایه روشی برای افزایش کارایی پردازش تصاویر بوسیله مدل نگاشت کاهش

تعداد صفحات : 99

چکیده:

پردازش مالتی مدیا و بطور خاص پردازش تصویر از زمینه‌های پرکاربردی است که در آن ما با حجم بسیار بالایی از داده‌ها مواجه هستیم و به شدت از سوی محققان نیز مورد توجه قرار گرفته است. با افزایش حجم تصاویر و نیز گسترش و توسعه‌ی انواع مختلف برنامه‌ها نیاز به کامپیوترهای غول پیکر و پردازش موازی برای پردازش این حجم از داده‌ها احساس می‌شود. نوعی از پردازش‌های موازی که امروزه به شدت طرفدار پیدا کرده است، پردازش توزیع شده است که طی آن پردازش‌ها بین ماشین‌ها تقسیم و به موازات هم اجرا می‌شوند. همچنین مدل برنامه‌نویسی که امروزه بعنوان راه‌حلی برای بسیاری از مسائل Big Data ارائه شده و روی محیط توزیع شده نیز مورد استفاده قرار می‌گیرد مدل برنامه‌نویسی نگاشت‌کاهش است. این مدل برنامه نویسی، از نوع خاصی از مسائل توزیع‌پذیر که روی حجم بسیار بالایی از داده‌ها و روی شبکه‌ای از کامپیوترها اجرا می‌شوند پشتیبانی می‌کند. در این پژوهش که به بررسی پردازش تصویر توزیع شده می‌پردازیم، با یافتن پارامترهای تاثیرگذار بر سرعت پردازش در محیط توزیع شده به بررسی تاثیر آنها بر روی مسائل پردازش تصویر در مدل نگاشت‌کاهش پرداخته‌ایم. این روش منجر به چارچوبی حاوی پارامترهایی شده‌است که با بررسی تاثیر آن‌ها می‌توانیم نوعی مدل انتزاعی برای استقرار بهینه نرم افزارها در محیط توزیع شده پیشنهاد بدهیم. استفاده بهینه از منابع باعث اجرای کاراتر برنامه‌ها در محیط توزیع‌شده می‌شود و سرعت پردازش را به میزان قابل توجهی افزایش می‌دهد. در این پژوهش طبق مدل ارائه شده سرعت پردازش 17.9 برابر افزایش یافت.

 


ادامه مطلب...
پایان نامه ارائه چارچوبی راهبردی برای سیستم­های توزیع شده اجرایی تولید با استفاده از مدل محاسبات ا

پایان نامه

مقطع کارشناسی ارشد رشته: فناوری اطلاعات – گرایش مهندسی فناوری اطلاعات

عنوان/موضوع:ارائه چارچوبی راهبردی برای سیستم­های توزیع شده اجرایی تولید با استفاده از مدل محاسبات ابری

تعداد صفحات : 160

چکیده:

فرآیند تولید در سازمان­های مختلف، دارای سبک­های متفاوتی است که هدف هرکدام در نهایت تحویل محصول درست در زمان درست به مشتری است. ضمن اینکه با استقرار سیستم­های اجرایی تولید مزایای افزونتری در اختیار مدیران میانی نیز قرار می­دهد. در این تحقیق هدف از خلق چارچوب طرح ماژول­ها، روابط آن­ها و ملزومات پیاده­سازی هرکدام بوده است. چیزی که تا کنون در محیط ابرصورت نگرفته است. در مهمترین بخش که همان شناسایی ماژول­های این سیستم است، ماژول سفارش که در سیستم­های اجرایی اولید سنتی قابل مشاهده بود، مبنای کار قرار گرفته و با رویکرد تحلیلی و با استفاده از متدولوژی SOMA، سایر ماژول­ها از مله مدیریت منابع، زمانبندی، پس­گیری، مدیریت تعاریف و … از آن استخراج شده است. به عبارتی هدف هرچه کوچکتر کردن این ماژول بزرگ در سیستم اجرایی تولید سنتی است. با توجه به محدودیت­های طرح عملی این چارچوب در محیط ابر، یک مطالعه موردی تحت عنوان شرکت جمساز نتیجه نهایی این تحقیق است، مطالعه­ای که در آن فرآیند اصلی تولید جمساز با راه­حل مطرح شده مورد مقایسه قرار گرفته و باتوجه به نظر خبرگان این حوزه و مصاحبه با مدیران تولید و پرسنل مرتبط نتایج نهایی حاصل شد. در مقایسه با سیستم­های مشابه و سنتی و با در نظر گرفتن سبکتر کردن ماژول سفارش، انعطاف ­پذیری هرچه بیشتر و جامعیت و یکپارچگی بیشتر حاصل شد و مدل جدید کسب و کار ابری نیزدیدگاه ­های جدیدی را برای این سازمان­ها فراهم آورده است.

 

ادامه مطلب...
دانلود پایان نامه خوشه‌بندی مبتنی بر انتخاب بر اساس نظریه خرد جمعی

پایان نامه مقطع کارشناسی ارشد

رشته: فناوری اطلاعات – مدیریت سیستم‌های اطلاعاتی

عنوان:خوشه‌بندی مبتنی بر انتخاب بر اساس نظریه خرد جمعی

تعداد صفحات : 167

چکیده:

خوشه‌بندی وظیفه کاوش الگوهای پنهان در داده‌های بدون برچسب را بر عهده دارد. به خاطر پیچیدگی مسئله و ضعف روش‌های خوشه‌بندی پایه، امروزه روش‌های خوشه‌بندی ترکیبی مورد استفاده قرار می‌گیرند. به روشی از خوشه‌بندی ترکیبی که در آن از زیرمجموعه‌ای منتخب از نتایج اولیه برای ترکیب و ساخت نتیجه نهایی استفاده می‌شود خوشه‌بندی ترکیبی مبتنی بر انتخاب زیرمجموعه نتایج اولیه می‌گویند. در سال‌های اخیر تمرکز بر روی ارزیابی نتایج اولیه برای انتخاب خوشه در خوشه‌بندی ترکیبی مورد توجه محققین زیادی قرار گرفته است. اما پاسخ به بعضی از سؤالات در این زمینه همچنان با ابهامات زیادی روبروست. از طرفی دیگر، نظریه خرد جمعی که اولین بار توسط سورویکی منتشر شده است، نشان می‌دهد که قضاوت‌های جمعی و دموکراتیک از اعتبار بیشتری نسبت به آنچه که ما انتظار داشتیم برخوردار هستند. این نظریه چهار شرط پراکندگی، استقلال، عدم تمرکز و روش ترکیب مناسب آراء را برای هر جمعیت خردمند لازم و کافی می‌داند. هدف این تحقیق پیشنهاد فرآیندی جهت نگاشت و به‌کارگیری نظریه خرد جمعی در انتخاب زیرمجموعه مناسب در خوشه‌بندی ترکیبی مبتنی بر انتخاب می‌باشد. از این روی در این تحقیق ابتدا با استفاده از تعاریف مطرح‌شده در نظریه خرد جمعی باز تعریفی متناسب با خوشه‌بندی ترکیبی مبتنی بر انتخاب ارائه می‌شود و بر اساس آن دو روش برای ترکیب این دو مفهوم پیشنهاد می‌شود. در روش پیشنهادی اول الگوریتم‌های خوشه‌بندی اولیه غیر هم نام کاملاً مستقل فرض خواهند شد و برای ارزیابی استقلال الگوریتم‌های هم نام نیاز به آستانه‌گیری می‌باشد. در روش دوم، سعی شده است تا دو بخش از روش اول بهبود یابد. از این روی جهت مدل‌سازی الگوریتم‌ها و ارزیابی استقلال آن‌ها نسبت به هم یک روش مبتنی بر گراف کد الگوریتم ارائه می‌شود و میزان استقلال به دست آمده در این روش به عنوان وزنی برای ارزیابی پراکندگی در تشکیل جواب نهایی مورد استفاده قرار می‌گیرد. جهت بررسی ادعاهای این تحقیق در بخش ارزیابی دقت و اطلاعات متقابل نرمال شده‌ی روش‌های پیشنهادی بر روی داده‌ّهای استاندارد با روش‌های پایه، روش‌ ترکیب کامل و چند روش معروف خوشه‌بندی ترکیبی مبتنی بر انتخاب مقایسه می‌شوند که این مقایسه کاراریی بالای روش‌های پیشنهادی این تحقیق در اکثر موارد نسبت به سایر روش‌های مطرح شده را نشان می‌دهد. همچنین در بخش نتیجه‌گیری چندین روش توسعه جهت کارهای آتی‌ پیشنهاد می‌شود.

 

ادامه مطلب...
دانلود پایان نامه با موضوع اهداف وچرایی توسعه اقتصادی

مقدمه:اصطلاح توسعه بصورت فراگیر پس از جنگ جهانی دوم مطرح شده است.

واژه توسعه به معنای پیشرفت و به معنای خروج از لفاف است

خروج از لفاف یعنی خروج از جوامع سنتی به جوامع صنعتی

فصل اول

نکات مهم در توسعه عبارتند از :

۱ ) مقوله ارزشی ۲) چند جانبه و چند بعدی است ۳) ارتباط نزدیکی با بهبود دارد

نظرات مختلف اهداف توسعه:

۱* مایک تودارو : توسعه چند بعدی است و آنرا مستلزم تغییرات اساسی در ساخت اجتماعی طرز تلقی مردم ، نهادهای مالی ، کاهش نابرابری و ریشه کن کردن فقر مطلق می داند .

۲* برن اشتاین : تلاش برای ایجاد توسعه با بار ارزشی همراه است اشتیاق برای غلبه بر سوء تغذیه فقر و بیماری که از شایعترین و مهمترین دردهای بشری هستند از جمله اهداف توسعه به شمار می آید.

۳* دادلی سیرز : توسعه جریانی چند بعدی تجلیل سازمان و جهت گیری متفاوت کل نظام اقتصادی ، اجتماعی عادت و عقاید مردم می داند.

۴* پیتر دونالدسن : توسعه تغییرات اساسی در ساخت اجتماعی گزینش ها و نهاده ها برای تحقق کامل هدفهای جامعه می داند و ادامه توسعه با آگاهی همگانی مردم از تغییرات و مشارکت صورت می گیرد.

۵* میسرا : محقق هندی بر ابعاد فرهنگی تاکید دارد

۶* گونار میردال : توسعه یعنی فرآیند دور شدن از توسعه نیافتگی یعنی رهایی از چنگال فقر با برنامه ریزی بهتر به منظور توسعه

۷* بروگلفید : توسعه یعنی پیشرفت به سوی اهداف رفاهی ، توسعه باید نابرابری را کاهش داد.

انواع توسعه:

۱* توسعه اجتماعی : اشکال متفاوت کنش متقابلی است که در یک جامعه خاص همراه با توسعه تمدن رخ می دهد و حوزه وسیعتری را در بر می گیرد

۲* توسعه فرهنگی : دارای بار ارزشی بیشتری است و تاکید بیشتری بر نیازهای غیر مادی افراد جامعه دارد و در حوزه های ادراکی ، شناختی ، ارزشی و گرایشی انسانها و رفتار و کنش آنهاست تا حاصل فرآیند توسعه فرهنگی کنار گذاشتن خرده فرهنگهای نامناسب توسعه ای است

۳* توسعه سیاسی : پس از جنگ جهانی دوم در ادیان توسعه طرح شده است تا کید بر کارایی حکومتها و جایگزینی الگوهای رفتاری نوین به الگوهای رفتاری سنتی توجه دارد مثلاً مشارکت مردم در حکومت

دولت پیشرفت داشته باشد ، گسترش جامعه مدنی در جامعه صورت می گیرد.

۴* توسعه انسانی : توسعه انسانی به ۳ شاخص کلیدی : طول عمر – سطح دانش – سطح معاش آبرومند بستگی دارد

تفاوت بین مفهوم رشد و توسعه : رشد جنبه کمی دارد ( رشد : بزرگ شدن ) توسعه جنبه کیفی دارد.

رشد اقتصادی: عبارت است از افزایش تولید خالص ملی یک کشور در یک دوره زمانی معین

تولید ناخالص ملی = درآمد ملی

توسعه اقتصادی: به معنای خروج از لفاف به معنای بهبود

پرفسور بلاک می گوید : توسعه اقتصادی عبارت است از : دستیابی به تعدادی از هدفها ، نمایان مطلوب و نوسازی از قبیل افزایش بازدهی تولید ، ایجاد نابرابری های اجتماعی و اقتصادی – کسب معارف و فهم مهارتهای جدید ، بهبود در رفع نهادها و یا بطور منطقی دستیابی به یک سیستم موزون و هماهنگ از سیاستهای مختلف که بتواند انبوه شرایط نا مطلوب یک نظام اجتماعی را برطرف سازد.

تعریف دیگر توسعه اقتصادی: عبارت است از : افزایش مداوم ظرفیت تولید یک جامعه که بر اساس تکنولوژی درون زایش رونده پی ریزی شده است.

(( افزایش درآمد ملی واقعی جامعه در طول مدت زمان طولانی ))

معیارهای اندازه گیری توسعه : ۱ *کیفی ۲* کمی

معیارهای اصلی:

۱* تولید ناخالص ملی دارای معایب زیر است:

الف) اثر رشد جمعیت را نادیده می گیرد

ب ) اثر رشد قیمتها در نظر گرفته نمی شود

ج ) نحوه روش توزیع درآمد مورد توجه واقع نمی شود

د ) درآمد یا تولید ناخالص ملی هزینه های جانبی را که جامعه برای توسعه اقتصادی متحمل می شود مثل : آلودگی آب و هوا – صنعتی شدن در نظر می گیرد.

تعداد صفحه :۴۷

 

ادامه مطلب...
دانلود پایان نامه استفاده از گراف ها در تشخیص الگوها

چکیده :

pattern recognition علمی است که به توصیف و کلاسه بندی و تشخیص اشیا مختلف می پردازد . یکی از روش های مختلف برای  تشخیص الگو تشخیص الگوی ساختاری است که در آن از تئوری گراف برای توصبف  اجسام موجود استفاده می شود . باز نمایی داده ها و اشیا توسط گراف ها ما را به سمت الگوریتم های تطبیق گراف سوق  می دهند . در این سمینار قصد داریم الگوریتم های شناسایی الگو با گراف ها و دسته بندی های موجود در این رابطه را مورد بررسی قرار دهیم . روش های موجود عبارتند از الگوریتم های بهینه  الگوریتم های تقریب الگوریتم های مقاوم در برابر خطا و جستجوی شاخص دار .

الگوریتم های بهینه همیشه بهترین تطابق را استخراج می کنند ولی پیچیدگی زمانی بسیار  بالایی دارند . در روش های تقریب تضمینی  در مورد بهینه بودن جواب وجود ندارد در عوض زمان محاسبه و رسیدن به تطابق مورد نظر بسیار کوتاهتر می باشد . روش های مقاوم در برابر خطا کاربرد بیشتری در محیط های واقعی و نویزی دارند . الگوریتم های  تطبیق گراف را می توان برای stero vision  تشخیص  داد سازمان دهی مدل های بانک اطلاعاتی و غیره بکار برد .

مقدمه :

تشخیص الگو در برگیرنده دو عمل اساسی و مهم می باشد : توصیف و دسته بندی وقتی یک جسم  ناشناخته را به عنوان ورودی به سیستم می دهیم ابتدا یک توصیف از این جسم تولید می شود . دو راه کار کلی برای پیاده سازی سیستم مهای تشخیص الو وجود دارد .

1. تشخیص الگوی آماری

2. تشخیص ساختاری

هر کدام از این دو روش تکنیک های متفاوتی را برای عمل توصیف و کلاسه بندی به کار می برند . روش ها ی آماری با استفاده از تئوری های تصمیم گیری و براساس ویژگی های کمیتی استخراج شده از  ورودی فرایند کلاسه بندی را انجام می دهند . روش های ساختاری بر مبنای ویژگی های شکل شناسی و خصوصیات ساختاری جسم و نحوه ارتباط آنها باهم عمل توصیف ورودی و تشخیص گروه مربوط به آن را پیاده سازی می کنند .

تعداد صفحه :63

ادامه مطلب...
پایان نامه بررسی مفاهیم سیستم های برنامه ریزی منابع سازمان

چکیده :

رشد غیر قابل پیش بینی فناوری اطلاعات و ارتباطات در دهه های گذشته بر جنبه های مختلف عملکرد سازمان ها تاثیرات شگرفی داشته است . همزمان با این تغییرات محیط فعالیت سازمان های مختلف پیچیده تر شده و به همین جهت نیاز به سیستم های مختلفی که بتواند ارتباط بهتری بین اجزای مختلف سازمانی برقرار کرده و جریان اطلاعات را در بین آنها تسهیل  کند افزایش چشمگیری یافته است .  این سیستم ها که در مجموع به سیستم های سازمانی معروف هستند زمینه ای را فراهم آورده اند که مدیران بتوانند در تصمیم گیری های مختلف خود از اطلاعات مناسب در هر جا و در زمان مناسب استفاده نمایند .

از اوایل دهه 1990 میلادی طهور نرم افزار های یکپارچه ای تحت عنوان با هدف قراردادن سازمان های بزرگ توسعه بسیار  زیادی پیدا کردند . این نرم افزار های بسیار قدرتمندپیچیده و گران قیمت سیستم های از پیش طراحی شده ای هستند که پس از اندک تغییراتی در آنها توسط مشاوران پیاده ساز و مشاوران تحلیل فرایندهای سازمانی پیاده سازی و اجرا می شوند . در بسیارزی از موارد سازمان ها به دلیل اجبار در تبعیت از منطق حاکم براین نرم افراز  ها مجبور به اصلاح و بازبینی مجدد فرایند های خود هستند این نرم افزار ها برخلاف  نرم افزارهای قدیمی که در سازمان ها و از طریق واحد های مختلف سازمانی توسعه پیدا می کردند .

مجموعه ای یکپارچه ای هستند که دارای ماژول های مختلف بوده و هر زمان که نیاز به اضافه کردن ماژول دیگری به آنها باشد این کار به راحتی صورت می پذیرد به ساده ترین بیان erp مجموعه ای  است از بهترین شیوه ها برای  اجرای  وظایف مختلف در بخش های متععد سازمان .

 تعداد صفحه :49

ادامه مطلب...
پایان نامه بازیابی پکت های مفقود شده در سیستم انتقال صدا از طریق اینترنت

پس از گسترش  ارتباطات اینترنتی با توجه به آماده بودن بستر ارتباطی استفاده از اینترنت جهت انتقال صدا و در نتیجه مکالمه و کنفرانس های اینترنتی مورد توجه قرار گرفت . به دلیل طبیعت نامطمئن پروتکل گم شدن بسته های اطلاعاتی صدا در هنگام انتقال امری غیر قابل اجتباب می باشد .در نتیجه ارائه روش های کاربردی جهت بهبود کیفیت صدا ازاهمیت صدا از اهمیت ویژه ای برخوردار است . در این مقاله به بررسی و مقایسه روش های   مختلف بازیابی بسته های مفقود شده در انتقال صدا از طریق اینترنت می پردازیم .

مقدمه :

در سه دهه اخیر شاهد دو فرضیه اساسی تکنولوژیکی در علوم ارتباطات بوده ایم . اولین آنها براساس نمایش دیجیتال رقمی سیگنال صدا است که مبنایی برای پردازش ها ذخیره و انتقال بیشتر و موثر تر آنها گردیده است .

دومین فرضیه گسترش و پیشرفت شبکه های packet -switched  است که با ایده اتصال جزایر کوچک تجربی آغاز گردیده و به اتصالات بین المللی امروزی که به عنوان اینترنت می شناسیم منتهی گردیده است . هردو تکنولوژی به واسطه تحقیقات و آزمایشات بر روی packet  voice از دهه 1970 میلادی به هم نزدیک گردیدند .

تعداد صفحه :57

 

ادامه مطلب...
پایان نامه طراحی اینترفیسی برای سرویس ذخیره سازی در شبکه های توری کوچک

چکیده :

دیتا گرید نوعی از معماری گرید است که به تهیه سرویس های خاص برای اداره و کنترل انباری از داده های ناهمگون و پراکنده اقدام می کند . سیستم های دیتا گرید بسیار بزرگ ، هم قدرت محاسباتی فوق العاده عظیمی را ایجاد می کنند و هم حجم بی نظیری فضای ذخیره سازی توزیع  شده بوجود می آورند . تکثیر بعنوان یک راه حل معمول برای بهبود بخشیدن زمان دسترسی به فایل و  دسترسی پذیری داده در دیتا گرید مورد استفاده قرار می گیرد . البته رفتار پویای کاربران گرید و هم چنین حجم بزرگ مجموعه های داده ، تصمیم گیری در مورد تکثیر داده برای بهبود  دسترس پذیری سیستم را پیچیده می سازد .

در این پایان نامه ، یک استراتژی کپی برداری برای حل مساله دسترس پذیری داده در سیستم های گسترده ،با فرض محدود بودن فضای ذخیره سازی کپی ارائه شده است .

الگوریتم پیشنهادی با هدف افزایش قابلیت دسترس پذیری سیستم ارائه شده است .از دو معیار جدید برایارزیابی قابلیت اطمینان سیستم استفاده شده است . شبیه سازی انجام شده و نتایج آن بهبود عملکرد سیستم را نشان می دهد .

هدف :

تقریبا در همه سازمان ها و شرکت های بزرگ تعدادی کامپیوتر بدون استفاده وجود دارد  مثلا سرور های یونیکس از تقریبا ده تا بیست درصد از طرفیت حقیقی خود استفاده می کنند و کامپیوتر های شخصی حدودا از 95 درصد از شرفیت خود اصلا استفاده نمی کنند .

با استفاده از رایانش مشبک در یک سازمان یا شرکت یزرگ می توان از منابع بلا استفاده کامپیوتر های  سازمان کمال استفاده را برد و سرعت پردازش اطلاعات در سیستم هایی که با کمبود حافظه مواجهند را جبران نمود . از طرف دیگر سرعت نرم افزار هایی که از این منبع بزرگ سخت افزاری استفاده می کنند بسیار بالاتر خواهد بود و در نتیجه می توانیم به فکر درست کردن نرم افزار هایی با قابلیت های بالاتر باشیم و منابع بیشتری را در اختیار استفاده کنندگان قرار دهیم .رایانش مشبک می تواند مزایای زیادی برای مدیران و برنامه نویسان داشته باشد . مثلا با آن می توان برنامه هایی که نیاز به حافظه زیادی دارند را اجرا نموده و دسترسی آسان تری به اطلاعات پیدا کرد . اصولا رایان مشبک می تواند به سازمان ها و شرکت های بزرگی که سرمایه  هنگفتی را درتکنولوژی اظلاعات هزینه کرده اند کمک کند از سیستم های خود حداکثر استفاده را ببرند .

تعداد صفحه :111

ادامه مطلب...
دانلود پایان نامه استفاده از کلونی مورچه در مسیریابی در شبکه دیتاگرام

دانلود پایان نامه  استفاده از کلونی مورچه در مسیریابی در شبکه دیتاگرام

تعداد صفحه :77

چکیده
با گسترش شبکه های کامپیوتری و پیچیده شدن ارتباطات، مسئله مسیریابی اطلاعات برحسب تغییـرات توپولوژیکی و عموماً ترافیک لحظه ای حائز اهمیت است. وظیفه هر الگوریتم مسـیریابی هـدایت بسـته هـای اطلاعاتی از مبدأ به سمت مقصد با هدف بهینه کردن میانگین زمان تأخیر بسته هـا، بهـره بـرداری ازمنـابع و کارایی شبکه مانند توان عملیاتی می باشد. در سالهای اخیر مسئله مسیریابی وفقی در شـبکه هـای دیتـاگرام باساختارها و توپولوژی های متفاوت بسیار مورد توجه قرار گرفته است و الگوریتمهـای مختلفـی در ایـن زمینـه پیشنهاد شده است که از آن  جمله می توان الگوریتم مسیریابی کلونی مورچـه را نـام بـرد . الگـوریتم کلـونی مورچه الهام گرفته شده از مطالعات ومشاهدات بر روی کلونی مورچه هاست. این الگوریتم بر پایه ایـن منطـق بنا نهاده شده که مورچه ها در مسیرخود برای یافتن غذا از خود ماده ای به نام فرومون بر جـای  مـی گذارنـد که بستگی به طول مسیر و کیفیت غذای یافته شده دارد بر اثر استشمام بوی فرومون توسط دیگر مورچه هـا آنها نیز جذب مسیر شده و مقدار فرومون را در آن مسیر تقویت می کنند، مسیرهای کوتاهتر از لانـه تـا غـذا فرومون بیشتری گرفته وبدین ترتیب کوتاهترین مسیر  توسط مورچه ها انتخاب می شود، از این رفتار توصیف شده مورچه ها برای بهینه سازی جداول مسیریاب ها استفاده شده و به این ترتیـب کوتـاهترین مسـیر بـرای هدایت بسته ها در نظر گرفته می شود.
در سمینار حاضر به بررسی الگوریتم ها ی پیشنهاد شده براساس ایده کلونی کورچه هـا بـرای مسـیریابی بسته های اطلاعاتی در شبکه دیتا گرام پرداخته می شود.

مقدمه
در طی سالهای اخیر، شبکه های ارتباطی بسیار مورد توجه بوده اند و این بدلیل رشد بی سابقه شـبکه اینترنت در دهه های اخیر است که در واقع آنرا تبدیل به زیربنای ارتباطات کـرده اسـت و مـی تـوان گفـت دلیل اصلی موفقیت اینترنت فن آوری راهگزینی بسته ای بدون اتصالش است.  این خاصیت سادگی، انعطـاف پذیری، پایداری و درستی ساختار لایه شبکه را بهمراه دارد.این دقیقا ًبر خلاف شبکه های ارتباطی مبتنی بر اتصال است که نیاز دارند تابرای برقراری ارتباط یک اتصال(مداری)از پیش رزرو شده بین فرستنده و گیرنـده درنظر گرفته شود. موفقیت اینترنت محقق  هـا را ترغیـب کـرد تـا رویـای محاسـبات جهـانی Ubiquitous Computingرا درک کنند. در واقع محاسبات جهانی جامعه ای از کاربران را ایجاد کرده است که توان خـود ، تجارت الکترونیکی 1 را در کاربردهایی مانند وب جهان گستر  آمـوزش از راه دور و…. بکـار مـی برند. مشخصه مشترکی که  تمام این کاربردها دارند توانایی ارسال صدا و تصویر به دیگـران تحـت الزامهـای 4 کیفیت خدمات QoS است. کاربران تمام این خدمات را همانگونه که در سایر وسایل سیار وجـود دارد بـر روی کامپیوترشان نیز می خواهند، و این نیازها برآورده نمی شود مگر اینکه منابع شبکه بطور مناسبی  کـار برده شوند. بهره برداری مناسب از منابع محدود شبکه بوسیله بهینه کردن عملکرد شبکه های مبتنی بـر IP میسر می شود که آن نیز مستلزم ایجاد استراتژی های مسیریابی کارآمد و قابل اعتمـاد اسـت . یکـی از چـالش های موجود در این زمینه طراحی پروتکل های مسیر  ابی است که بتوانند چندین مسـیر مناسـب بـین فرستنده و گیرنده را کشف کنند .در حال حاضـر الگوریتمهـای مسـیریابی پویـا و وفقـی گونـاگونی توسـط محققان سراسر جهان با الهام از طبیعت طراحی شده اند. از آن جمله می توان به الگوریتم های کلونی مورچه اشاره کرد.
5 ایده ی اصلی این مجموعه از الگوریتم ها، بر جا ماندن مـاده ی فر ومـون بـه عنـوان ردپـا در دنیـای مورچه های واقعی می باشند. مورچه ها از ماده ی فرومون به عنوان یـک وسـیله ی ارتبـاطی اسـتفاده مـی کنند. در واقع الگوریتم های بهینه یابی مورچگان بر مبنای ارتباط غیـر مسـتقیم  مجموعـه ای از مورچگـان مصنوعی به وسیله ی فرومون مصنوعی بنا نهاده شده اند که در این میان ماده ی فرومون وظیفـه ی انتقـال تجربه ی مورجه ها به یکدیگر بدون ارتباط مستقیم مورجه ها با هم را به عهده دارد. الگوریتم های مورچه نمونه های موفقی از سیستم های هوش جمعی هستند و از TSP سنتی تا مسیریابی در شبکه های ارتباطی راه دور را دربرمی گیرند. الگوریتم های مورچه، سیستم های چندعامله ای هستند که هر عامل، یک مورچه مصنوعی است. در واقع دانشمندان با الهام گرفتن از مورچه ها عمل پیچیده مسیریابی را با عاملهای ساده  ای که با پیمایش شبکه، اطلاعات مسیر یابی را جمع آوری می کنند، انجام می دهند. هر گره در شبکه براساس اطلاعات محدودی که از وضعیت شبکه دارد بسته های داده را به سمت مقصدشان هدایت می کند.الگوریتمهای مسیر یابی مبتنی بر عامل در مقابل تغییرات شبکه بهره   برداری تطبیقی و کارآمد منابع شبکه را جهت ارضا کردن نیازهای توازن بار و مدیریت خطا در شبکه فراهم می کنند. در این سمینار ابتدا به بیان مسئله پرداخته شده سپس به مقدمه ای بر بهینه سازی کلونی مورچگان می پردازیم و بعد از آن مروری بر نحوه مسیر یابی در شبکه های  کامپیوتری خواهیم داشت و در ادامه نیز به بررسی روش والگوریتم های بهینه سازی کلونی مورچگان در مسیریابی شبکه های دیتاگرام پرداخته می شود و در آخر نتیجه گیری آورده شده است.

تعداد صفحه :77

 

ادامه مطلب...
دانلود پایان نامه ارشد با عنوان توربازآرا “RM-Reconfigurable Mesh”

دانلود پایان نامه ارشد با عنوان توربازآرا “RM-Reconfigurable Mesh”

تعداد صفحه :218

چکیده
اجرای پرسرعت برنامه نیاز به طرّاحی بر روی الگوهایی غیر از Von-Newman دارد. از این رو استفاده از چینشهای دوبعدی الزامی است. در هر یک از الگوهای محاسباتی موازی علاوه بر وجود چینشهای متفاوت ، خصوصیّات معماریهای سازگار با آنها نیز دیده میشود. بازآرائی یکی از این خصوصیّات است که به تغییر پیکربندی در زمان اجرا گفته میشود. با این قابلیت بین استفاده ی عمومی از سختافزار و طرّاحی سازگار با برنامه ، توازن ایجاد میشود. هزینهی سنگین عوض کردن پیکربندی ، یکی از موانع اجرایی شدن این خصوصیّت است. علاوه بر همگامسازی و انجام  محاسبات باید هزینه ی پیکربندی نیز در طرّاحی الگوریتم سنجیده و کمینه شود. تأثیر در مقیاس پذیری الگوریتم ، یکی از اثرات جانبی استفاده از بازآرائی است که با کمّی کردن و اندازه گیری آن در انواع الگوهای محاسباتی به کارایی بهتری در زمان اجرا خواهیم رسید. 

مقدمه
همه کاره  الگوی von-newman اساس کار رایانه ی است. هدف این الگو تبدیل دستورات پیچیده به ساده است . گاهگان نتیجه که بعد از اجرای هر دستور موجود در حافظه با گذر از چرخه ی الزامی fetch-decode-execute حاصل میشود در حافظه ذخیره خواهد شد. گذر از مراحل -fetch decode موجب افزایش زمان اجرای دستورات میشود. در این نوع رایانه ها قابلیّت اجرای انواع متنوّعی از برنامه ها در ازای هزینه در زمان اجرا به دست میآید. با پذیرش این رویّه اجرای ترتیبی دستورات که ذاتاً موازی پذیر نیست اجتناب ناپذیر است . زمان اجرا با موازی سازی دستورات کاهش  مییابد. در این الگو موازی سازی ، شبیه سازی میشود.  مدار سازگار با برنامه یکی از روشهای موازی سازی دستورات است . هدف ، طرّاحی مدار مجتمع بر اساس ماهیّت برنامه است. این پیشنهاد باعث بالا رفتن کارایی میشود اما قابلیّت استفاده ، تنها در مجموعه ای خاص از برنامه ها  محدود میشود. عدم انعطاف در اجرای متنوّع برنامه ها مشکل این روش بین انعطاف پذیری  است. تلاش محقّقین برای ایجاد توازن و کارایی  باعث پیشنهاد تغییر آرایش مدار مجتمع در حین اجرا شد. این معماری قابلیّت بازآرایی دارد. از این جهت میتوان این الگو را معماری نامید. در این الگو ،  پیکربندی بدون هزینه زیاد در زمان اجرا برای بالا بردن کارایی یک بازآراپذیر برنامه خاص تغییر میکند. حاصل شد. به آرایه ای با واحدهای منطق این نوع معماری با تکامل تدریجی آرایه ی منطقی برنامه پذیر و شبکه ارتباطی که تغییر بیت های پیکربندی سبب تغییر پیوندهای شبکه و در نتیجه  تغییر پردازش خواهد شد آرایه ی منطقی برنامه پذیر گفته میشود. انتقال بیت های پیکربندی و تغییر آن فرایندی پرهزینه است. در تراشه های پیوندی حاصل از آرایه منطقی برنامه پذیر و ریز پردازنده ی کمکی هزینه ی دسترسی به حافظه و بازآرایی شبکه کم شد. گاشت درست محاسبات بر روی  خت افزار بازآراپذیر و استفاده از ریزپردازنده ی کمکی سبب کارایی بهتر در اجرای برنامه میشود. تقسیم محاسبات بین ریزپردازنده و بقیه اجزا به صورت دستی یا به پیچیده و ساختار کمک ابزارهای خودکار و نیمه خودکار امکانپذیر است. محاسباتی که دارای نظارت  قابل اجرا توسط  گاهگان ویژه باشند توسط ریزپردازنده انجام میشود. تبدیل محاسبات به رمزعدد ریزپردازنده و تغییر پیکربندی برای بقیّه اجزا ، نگاشت گفته میشود. پیکربندی اولیّه با توجّه به اطّلاعاتی خواهد بود که قبل از اجرای محاسبات از روی برنامه حاصل میشود . پیکربندی در زمان اجرا برای مجموعه ای متفاوت از محاسبات تغییر مییابد.
معماری von-newman نیازمندیهای این الگو را برآورده نمیکند ، از این جهت برای بهبود و روشهای نگاشت احتیاج به یک سلسله مفاهیم بلنددید زمانبندی است. الگوی محاسباتی بازآرا  یکی از این مفاهیم است که با استفاه از آن میتوان به بهینه سازی نگاشت با روشهای الگوریتمی  دست زد. کارایی این گونه محاسبه در زمینه رمزنگاری ، معنافهمی ،پردازش شکل ،الگوریتمهای وراثتی پیام و شبکه عصبی …. اثبات شده. این نوشتار در سه بخش کلیّات ، نگاه سختافزاری و نگاه نرمافزاری تهیه شده است. در قسمت کلیّات به پیشزمینههای مورد نیاز میپردازیم و در  بخشهای دیگر تنها ارجاعی به آن میشود. در نگاه سختافزاری به شرح الگو و انواع موجود تور بازآرا میپردازیم و در آخر نیز با چگونگی نگاشت و ملاکهای طرّاحی بهینه آشنا میشویم.

بعضی از مطالعات نیز به عهدهی خواننده گذاشته شده است. امید است مورد قبول مخاطب قرار بگیرد.

تعداد صفحه :218

ادامه مطلب...
 دانلود پایان نامه ارشد رشته کامپیوتر قابلیت اطمینان درشبکه های بی سیم بامنابع خفته

چکیده

درشبکه های حسگربیسیم مصرف انرژی مهمترین عامل برای تعیین طول عمرشبکه است بـه ایـن دلیل که گره های حسگرباانرژی باطری کارمی کنندومنبع انرژی کم ومحدودی دارند ایـن امربهینـه سـازی مصرف انرژی رادرشبکه های حسگرضروری میسازدزیراکم کردن مصرف انرژی باعـث  بیشـترکردن طـول عمرشبکه میشود.
گره هادرشبکه های حسگربیسیم برای انجام یک برنامه کاربردی مشترک مثل مانیتورکردن عوامـل محیطی بایکدیگرهمکاری می کنند.
دراین سمینار پس ازمعرفی شبکه حسگرهای بیسیم ،مفهوم قابلیت اطمینان بیان شده اسـت.عـلاوه برآن به تفصیل راجع به پروتکل SMAC صحبت شده است که یکی از پروتکل های پایـه در شـبکه هـای حسگر بیسیم می باشد پروتکل SMAC تغییر یافته IEEE.802.11 مـی باشـد کـه  مصـرف انـرژی و خـود سازماندهی هدف اولیه آن است این پروتکل ازبازه های خواب وبیداری مجزابرای هرگـره حسگراسـتفاده می کند ودرنهایت درباره زمانبندی نودهای همسایه برای رفتن به حالت خفتن بحث خواهدشد.
مقدمه
پیشرفت های اخیر در زمینه مخابرات و الکترونیک توسعه سنسورهای چند کاره کم قیمت با توان مصرفی پائین که دارای اندازه های کوچک هستند، را ممکن ساخته است. چنین سنسورهایی قـادر هسـتند در مسافت های کوتاه با هم ارتباط برقرار نمایند. این سنسورهای کوچـک کـه  شـامل واحـدهای حسـگر، پردازش داده و فرستنده گیرنده هستند، در شبکه های سنسوری مورد استفاده قرار می گیرنـد. شـبکه هـای سنسوری بیان کننده یک بهبود بزرگ در سنسورهای قدیمی هستند. یک شبکه سنسوری  از تعداد زیادی سنسور تشکیل شده است کـه بـا چگـالی زیـاد در یـک محیط مورد بررسی، قرار داده شده اند. لازم نیست مکان سنسورها از قبل محاسبه شده باشد. این امر امکان استقرار سنسورها در محیط های غیر قابل دسترس را نیز ممکن می سازد. به عبارت دیگـر پروتکـل هـا و باشـد. 1 الگوریتم های به وجود آمده برای شبکه های سنسوری باید دارای خصوصیت خود سـازمان دهـی خصوصیت یکتای دیگر در شبکه های سنسوری همکاری سنسورها با یکدیگر می باشد. سنسـورها دارای یک پردازنده هستند و به جای ارسال داده های خام به گـره هـای دیگـر از پردازنـده خـود بـرای اجـرای محاسبات محلی  ساده استفاده می کنند و تنها اطلاعات پردازش شده لازم را ارسال می نمایند.
خصوصیات شرح داده شده در بالا کاربردهای وسیعی برای شبکه های سنسـوری را تضـمین مـی کند. بعضی از این زمینه ها کاربردهای سلامتی، نظامی و خانگی هستند. به عنوان مثـال در کاربردهـای 2 نظامی خصوصیات شبکه در استقرار سریع سنسورها در محیط، خود سازمان  دهی و تحمل پـذیری خطـا استفاده از شبکه های سنسوری برای فرمان هـای نظـامی، سیسـتم هـای کنتـرل، برقـراری ارتبـاط، انجـام محاسبات، نظارت، شناسایی و ردیابی را امید بخش کرده است. در کاربردهای سلامتی، سنسورها می تواند برای نظارت بر حال بیماران و یا کمک به بیماران ناتوان استقرار یابند. بعضی دیگر از کاربردهـای تجـاری شامل مدیریت لیست اموال، نظارت بر کیفیت تولیدات و یا جستجوی مناطق حادثه دیده می باشد. تحقق این کاربردها و کاربردهای دیگر شبکه های سنسوری نیازمند تکنیک های شبکه های بیسیم ad-hoc می باشد. اگر چه پروتکل ها و الگوریتم های بسیاری برای شبکه های بیسیم سنتی و ad- hoc  پیشنهاد شده است، برای خصوصیات یکتای شبکه های حسگر مناسب نمی باشند. برای بیشتر مشـخص شدن این نکته در ادامه به بیان تفاوتهای بین این شبکه ها می پردازیم.
• تعداد گره های حسگر در یک شبکه سنسوری می تواند چنـدین برابـر گـره هـای موجـود در شبکه هایad-hoc باشد.
• گره های حسگر در شبکه های سنسوری با چگالی بالا استقرار می یابند.
• امکان خرابی گره های حسگر در شبکه های سنسوری وجود دارد.
• توپولوژی در یک شبکه حسگر به تناوب تغییر می کند.
• گره های حسگر در شبکه های سنسـوری عمومـاً از روش هـای ارتبـاطی broadcast بـرای 1 ارتباط با گره های دیگر استفاده می کنند در حالی که در شـبکه هـای ad-hoc از ارتبـاط نقطـه بـه نقطـه استفاده می شود.
• گره های حسگر دارای توان، قدرت محاسباتی و حافظه محدودی می باشند.
• در یک شبکه حسگر ممکن است به دلیل تعداد زیاد گره ها و سربار بالا گره هـا دارای شناسـه عمومی نباشند.

تعداد صفحه :90

ادامه مطلب...
دانلود پایان نامه تشخیص حمله به سرویس دهنده پست الکترونیکی

سمینار برای دریافت درجه کارشناسی ارشد “M.Sc” مهندسی کامپیوتر – نرم افزار

عنوان :تشخیص حمله به سرویس دهنده پست الکترونیکی با استفاده از تحلیل رفتار آن

تعداد صفحات :66

چکیده:
email ها بدلیل استفاده زیاد، یک گزینه مناسب برای گسترش ویروس و کرم ها و برنامه های مخرب می باشند . معمولا ویروس های از این طریق منتشر می شوند با سرعت بسیار زیادی گسترش می یابند. برای مواجهه با گسترش آن ها می توان از آنتی ویروس که یک ابزار متداول می باشد استفاده کرد اما مشکلی که آنتی ویروس ها دارند این می باشد که فقط قادر به تشخیص ویروس های شناخته شده می باشد و قادر به تشخیص ویروس های ناشناخنه نمی باشد.

به منظور تشخیص ویروس های ناشناخته از نرم افزارهای جدید تحت عنوان تشخیص حمله استفاده می شود که با استفاده از بررسی رفتار ترافیکی سرویس دهنده email به وجود ویروس های ناشناخته پی می برند.
مقدمه:
غالباً email ها بدلیل استفاده زیاد یک گزینه مناسب برای گسترش ویروس و کـرم هـا و برنامه های مخرب می باشند . معمولا ویروس های از این طریق منتشر می شوند بـا سـرعت بسـیار زیادی گسترش می یابند.هنگامی که کاربر، email حاوی ویروس را باز می کند ویروس شروع بـه فعالیت می کند و به دنبال تکثیر خودش می باشد و این کار را از طریق پیـدا کـردن آدرس email قربانیان جدید انجام می دهد. این آدرس هـا معمـولاً از منـابع مختلفـی بدسـت مـی آینـد. نظیـر addressbook اکانت کاربر، گوش کردن به لایه سوکت و یا آرشـیو email هـای ذخیـره شـده در کامپیوترکاربر. آنتی ویروس روش غالبی می باشد کـه بـا اسـتفاده از آن مـی تـوان از گسـترش ویـروس جلوگیری کرد . اما چالش اساسی در که مورد آنتی ویروس ها وجود دارد این مـی باشـد کـه آنتـی ویروس ها قادر به تشخیص ویروس های ناشناخته نمی باشند.
علت این که آنتی ویروس ها قادر به تشخیص ویروس هـای ناشـناخته نیسـتند ایـن مـی باشد که مبتنی بر الگو می باشند یعنی یک دیتابیسـی از الگـو هـای ویـروس هـای ویـروس هـای شناخته شده در آن وجود دارد. اگر یک email ویروسی باشد و الگوی مربوط بـه آن ویـروس درون دیتابیس آنتی ویروس موجود باشد ، ویروس تشخیص داده شده و ازفعالیت آن جلوگیری می شـود .
در صورت عدم وجود الگو، آنتی ویروس قادر به تشخیص ویروس و درنتیجـه قـادر بـه جلـوگیری از فعالیت ویروس نخواهند بود.این مشکل را تا حدی می توان با بروزرسانی دوره ای دیتابیس آنتی ویروس هـا بـر طـرف کرد اما مشکلی وجود دارد این می باشد از زمانی که ویروس شروع به فعالیت می کنـد و تـا زمـانی که الگوی ویروس شناسایی می شود ، مدت زمانی طول می کشـد و در طـول ایـن مـدت ویـروس بدون هیچ گونه مزاحمتی می تواند فعالیتش را انجام دهد وآسیب های زیادی را بـه سیسـتم هـای -signature base   کامپیوتری تحمیل می کند. به عنوان مثال، ویروس sobig.F در اواخر تابستان سال 2003 منتشـر شد. مدت زمانی که طول کشید الگوی این ویروس شناسایی شود، این ویروس خودش را توانست بـه طور گسترده ای بر روی اینترنت پخش کند و خسارت زیادی را تحمیل کند. به طور مشابه این قضیه در مورد حفره های امنیتی  ناشناخته ای که در سیستم ها وجـود دارد صدق می کند. یعنی تا زمانی که حفره های امنیتی ناشناخته ای در سیسـتم هـا وجـود دارد ،سیستم ها در برابر حملات ویروس ها آسیب پذیر می باشد. زمانی این حفره های امنیتـی مشـخص می شوند که مورد حمله ویروس قرار گرفته و سیستم آسیب می بیند و در مواجه با این حفـره هـا ، برنامه های کمکی امنیتی نوشته می شود و به سیستم اضافه می شوند.
در پاسخ به مشکل ذکر شده ، عدم شناسایی ویروس های ناشناخته، سیستم های جدیـدی بوجود آمدند تحت عنوان سیستم های تشخیص حمله ایجاد شدند کـه وظیفـه آن هـا تشـخیص حمله های ویروسی ناشناخته می باشد.

 

ادامه مطلب...
پایان نامه پیش بینی بهره کشی و خوشه بندی آسیب پذیری­ ها بوسیله­ متن کاوی

پایان نامه­ کارشناسی ارشد در رشته­ مهندسی کامپیوتر- نرم ­افزار

عنوان:پیش بینی بهره کشی و خوشه بندی آسیب پذیری­ ها بوسیله­ متن کاوی

تعداد صفحات : 111

 

چکیده:

آسیب پذیری­های نرم افزار می­تواند منجر به تلفات مالی و اطلاعاتی شود. به علت محدود بودن منابع مالی و انسانی، اولویت دهی به آسیب­ها بسیار مورد توجه می­باشد. پیش از این پژوهش، تعداد زیادی از محققان آسیب پذیری­ها را براساس دانش­های تجربی و آماری، رده بندی کرده­اند. اماگاهی طبیعت متغییر آسیب پذیری­ها، فراهم کردن یک معیار رده بندی برای آن­ها را غیر ممکن می­کند.

گزارش­های آسیب پذیری، به طور پیوسته در پایگاه داده­های مختلف ثبت می­شوند. اطلاعات متنی آسیب پذیری­ها، به طور کامل توسط ابزارهای اتوماتیک موجود، مورد استفاده قرار نمی­گیرد. این پژوهش نشان داد که از اطلاعات موجود در متن­ها برای ساخت مدل­های پیش گو می­توان استفاده کرد. متن کاوی ابزاری مناسب برای به دست آوردن اطلاعاتی است که در اخذ تصمیمات مهم مدیریتی موثر می­باشند.

در زمینه پیش بینی بهره کشی با استفاده از متن کاوی، تاکنون فقط یک تحقیق انجام شده است. این تحقیق در KDD2010، با عنوان “فراتر از اکتشافی: آموزش برای، کلاس بندی آسیب پذیری و پیش بینی بهره کشی” ارائه شده است. این تحقیق به سوالات زیر، با استفاده از متن کاوی پاسخ داده است: آیا از آسیب پذیری بهره کشی خواهد شد؟ چه زمانی از آسیب پذیری موجود بهره کشی خواهد شد؟ این مقاله در مقایسه با CVSS(که یکی از متریک­های معروف آسیب پذیری است) به نتایج خوبی رسیده است. در این پژوهش به سوالات فوق و به سوالات جدید زیر دقت بالایی پاسخ داده شده است:

اگر سیستمی مورد بهره کشی قرار گرفته، چه زمانی این بهره کشی آغاز شده است؟ (دقت پاسخ­ها بین 94.5-84%)

اگر سیستمی آسیب پذیر است، چه زمانی بسته اصلاح شده آن از سوی سازندگان ارائه خواهد شد؟ (دقت پاسخ­ها بین 91-68%)

در زمینه خوشه بندی آسیب پذیری­ها، تاکنون تحقیقات زیادی انجام شده است. پایگاه داده OSVDB دارای دسته بندی­های مختلفی برای آسیب پذیری­ها می­باشد، اما هیچ یک از این دسته­ها بر اساس توصیف آسیب پذیری­ها نیست. در این تحقیق آسیب پذیری­ها با استفاده از توصیف­هایشان خوشه بندی شده­اند، که دسته­های حاصل عبارتند از: سرریز بافر، رد سرویس، دستکاری داده، کنترل از راه دور، پیکربندی نامناسب، شکاف در رمز عبور، دسترسی غیر مجاز به اطلاعات، و دسترسی غیر مجاز به سرویس. برای انتساب آسیب پذیری­ها به دسته­های مناسب به صورت دستی به تجربه نیروی انسانی نیاز است و انجام این کار بسیار ملال آور می­باشد. دسته بندی ارائه شده در این پژوهش، امکان ساخت نرم افزاری که بتواند آسیب پذیری­ها را به طور خودکار به دسته­های مناسب نسبت دهد، را فراهم می­کند.

در این پژوهش از دو پایگاه داده معروف آسیب پذیری­ها (OSVDB و CVE)، و اطلاعات تاریخ آسیب پذیری­ها که استفان فری در اختیارمان قرار داد، استفاده شده است. برای پیش بینی بهره کشی از کلاس بندی کننده ­های ماشین بردار پشتیبانی و جنگل تصادفی، و برای انجام خوشه بندی از روش نگاشت خود سازمانده نوخاسته استفاده شده است.

فصل اول: مقدمه

1-1- آسیب پذیری

در مباحث امنیت کامپیوتر، یک آسیب پذیری، ضعفی است که برای مهاجم امکان سوء استفاده از اطلاعات یک سیستم را فراهم می­کند. سالانه هزاران آسیب پذیری کشف و گزارش می­شوند و میلیون­ ها دلار در سرتاسر دنیا صرف مقابله با آسیب پذیری­ ها می­گردد. برای بهره کشی از آسیب پذیری یک سیستم عموماً به سه عامل نیاز است: حساسیت یا نقصی در سیستم، دسترسی مهاجم به نقص و توانایی مهاجم برای بهره کشی از نقص.

1-1-1- تعریف آسیب پذیری

آسیب پذیری از جمله مفاهیمی است که منابع مختلف تعاریف متفاوتی را برایش ارائه داده­اند. از جمله این تعاریف می­توان به موارد زیر اشاره کرد:

ISO 27005: ضعف یک دارایی یا گروهی از دارایی­ها که می­تواند توسط فرد یا گروهی از افراد مورد بهره کشی قرار گیرد . در این تعریف دارایی به معنای هر چیزی که برای سازمان ارزشی داشته باشد، است، برای مثال منابع اطلاعاتی مورد حمایت سازمان.

IETF RFC 2828: یک عیب یا ضعف در طراحی، پیاده سازی، عملکرد یا مدیریت سیستم، که می­تواند باعث بهره کشی، در جهت نقض سیاست امنیتی سیستم شود .

کمیته ملی سیستم­های امنیتی ایالات متحده آمریکا، در دستورالعمل CNSSشماره 4009، در تاریخ 26 آوریل 2010، واژه نامه تضمین اطلاعات ملی: آسیب پذیری ضعف در یک IS، روش­های امنیتی سیستم، کنترل­های داخلی یا پیاده سازی است، که می­تواند منجر به بهره کشی شود .

ENISA: وجود یک ضعف طراحی یا خطای پیاده سازی که بتواند منجر به رویداد غیر منتظره نامطلوبی شود، که این رویداد امنیت سیستم کامپیوتر، شبکه، برنامه یا پروتکل را به خطر اندازد .

گروه باز: حالتی که قدرت مهاجم بیش از قدرت مقاومت در برابر آن باشد .

تحلیل عاملی از خطر اطلاعات(FAIR): احتمال اینکه یک دارایی قادر به مقاومت در برابر عوامل خطر نباشد .

امنیت داده و کامپیوتر، فرهنگ لغات مفاهیم و لغات استاندارد، نویسندگان دنیس لانگلی و مایکل شین، استاکتون پرس، ISBN 0-935859-17-9:

  1. در امنیت کامپیوتر، ضعف کارکرد امنیتی سیستم­های خودکار شده، کنترل­های ناظران، کنترل­های اینترنت و غیره، که بتوانند بوسیله یک مهاجم با دسترسی غیر مجاز به اطلاعات، پردازش اطلاعات را مختل کنند.
  2. در امنیت کامپیوتر، یک ضعف در لایه فیزیکی، سازمان، کارکرد، کارکنان، مدیریت، سرپرستی، سخت افزار یا نرم افزار که امکان بهره کشی از آن­ها با هدف آسیب رساندن به سیستم یا فعالیت­ وجود داشته باشد.
  3. در امنیت کامپیوتر، هر ضعف یا نقص موجود در یک سیستم، حمله، رویداد مضر یا فرصت دسترسی برای یک عامل تهدید کننده، که امکان تهدید را برای عامل فراهم کند، را آسیب پذیری گویند.

2-1-1- کلاس بندی آسیب پذیری ها

آسیب پذیری­ها، براساس نوع دارایی به دسته­های زیر تقسیم می­شوند :

  • سخت افزار، برای مثال: حساسیت به رطوبت، حساسیت به گرد و غبار، استعداد ابتلا به ذخیره سازی محافظت نشده.
  • نرم افزار، برای مثال: تست ناکافی، فقدان پیگیری.
  • شبکه، برای مثال: خطوط ارتباطی محافظت نشده، معماری شبکه ناامن.
  • کارکنان، برای مثال: روند جذب ناکافی، آگاهی های امنیتی ناکافی.
  • مکان، برای مثال: منطقه مستعد سیل،منبع برق غیر قابل اعتماد.
  • سازمانی، برای مثال: عدم پیگیری منظم، عدم تداوم برنامه­ ها.

3-1-1- علت­های ایجاد آسیب پذیری­ها

 برخی از منابع و علت­ های ایجاد آسیب پذیری­ ها عبارتند از:

  • پیچیدگی سیستم: احتمال وجود نقص و نقاط دسترسی ناخواسته در سیستم­های بزرگ پیچیده، بیشتر است .
  • متعارف بودن سیستم: استفاده از کدها، نرم افزارها، سیستم عامل­ها یا سخت افزارهای معمول و معروف، احتمال اینکه یک مهاجم بتواند به دانش و ابزار، جهت بهره کشی از نقص موجود دسترسی پیدا کند، را افزایش می­دهد .
  • اتصال: اتصالات فیزیکی، امتیازات، پورت­ها، پروتکل­ها و سرویس­های بیشتر و افزایش مدت زمان هر یک از آن­ها، دسترسی پذیری به آسیب پذیری­ها را افزایش می­دهد .
  • نقص در مدیریت پسوردها: کاربران کامپیوتر از پسوردهای ضعیفی که با تلاش اندکی کشف می­شوند، استفاده می­کنند یا اینکه آن­ها را در برخی برنامه­ها ذخیره می­کنند، و این پسوردها بین بسیاری از برنامه­ ها و صفحات وب­ مشترک است .
  • نقص­های طراحی در سیستم عامل­ های اصلی: طراحان سیستم عامل ­ها، عموماً سیاست­ هایی که کمتر کاربر/مدیر سیستم را درگیر کنند را برمی­گزینند. برای مثال سیستم عامل­ها، سیاست­ هایی مثل پیش فرض­های اعطای مجوز به هر برنامه و دسترسی کامل کاربران به سیستم را دارند .این نقص­های سیستم عامل­ها، به ویروس­ها و بدافزارها، اجازه اجرای دستوراتی از طرف مدیر را می­دهد .
  • مرور وب­سایت­ های اینترنت: برخی وب سایت­ های اینترنتی دارای جاسوس­ها یا تبلیغات خطرناکی هستند، که می­توانند به صورت خودکار روی سیستم­ های کامپیوتری نصب شوند. بعد از بازدید از این وب سایت­ها سیستم ­ها آلوده می­شوند، اطلاعات شخصی جمع آوری شده و برای شخص ثالث فرستاده می شود .
  • اشکلات نرم افزاری: اشکلات قابل بهره کشی در بسیاری برنامه­ های نرم افزاری وجود دارد. اشکلات نرم افزاری ممکن است به مهاجمان اجازه سوء استفاده از برنامه را بدهند .
  • ورودی­ های کاربر کنترل نشده: برنامه­ها فرض می­کنندکه همه­ی ورودی­های کاربر امن است. برنامه­هایی که ورودی­ های کاربر را بررسی نمی­کنند، در واقع امکان اجرای مستقیم دستورات ناخواسته و دستکاری در پایگاه داده­ها را فراهم می­کنند .

4-1-1- شناسایی و حذف آسیب پذیری­ها

 تلاش­ های زیادی در جهت ساخت نرم افزارهایی با قابلیت کشف خودکار آسیب پذیری­های سیستم ­های کامپیوتری انجام شده است. اگرچه نرم افزارهای موجود می­توانند در برخی موارد دید کلی خوبی را نسبت به آسیب پذیری­ های سیستم فراهم کنند، اما نمی­توانند جایگزین بررسی انسانی روی آسیب پذیری­ها شوند. تکیه بر گزارشات اسکنرها، دید محدود همراه با تشخیص­های اشتباه زیاد، به همراه خواهد داشت. آسیب پذیری­ها در همه­ ی نرم افزارهای اساسی مثل سیستم عامل­ ها وجود دارند. گاهی اوقات تنها راه حل اساسی مقابله با آن­ها نصب بسته نرم افزاری اصلاح شده آن محصول است و در فاصله زمانی کشف تا ارائه بسته نرم افزاری با روش ­هایی مثل استفاده از دیوار آتش و یا نظارت مستقیم بر کنترل­های دسترسی توسط ناظران سیستم ­ها، می­توان جلوی سوء استفاده از سیستم را گرفت. لازم به ذکر است که روش­های نظارت مستقیم بر سیستم ها، هم از نظر مالی و هم از نظر نیروی انسانی بسیار هزینه بر هستند.

2-1- مفاهیم اولیه­ مورد نیاز

1-2-1- متن کاوی

مشکلی که دنیای امروز با آن رو به رو است، کمبود یا نبود اطلاعات نیست بلکه کمبود دانشی است که از این اطلاعات میتوان حاصل کرد. میلیون­ها صفحه­ وب، میلیون­ها کلمه در کتابخانه­های دیجیتال و هزاران صفحه اطلاعات در هر شرکت، تنها بخشی از این منابع اطلاعاتی هستند. اما نمی­توان به طور مشخص منبعی از دانش را در این بین معرفی کرد. دانش حاصلی است که از نتیجه گیری و فکر و تحلیل بر روی اطلاعات به دست می­آید. هدف داده کاوی مشخص کردن روابط میان داده­ های موجود در پایگاه داده­ها و استخراج دانش از میان آن­ها می­باشد. زمانی که داده­های موجود ساخت یافته باشند استفاده از روش­های داده کاوی و کسب دانش از آن­ها ساده است. اما امروزه بخش زیادی از اطلاعات به صورت متن نگهداری می­شود و متن­ ها داده­ هایی غیر ساخت یافته هستند. یک فرد برای دریافت دانش از اطلاعات یک متن، بایستی ابتدا آنرا درک کند، تا بفهمد چه معانی و مفاهیمی در آن موجود است و چه ارتباطی میان مفاهیم وجود دارد. با این حال عصر تکنولوژی به دنبال خودکارسازی است، حتی اگر این کار “درک معنی متن” باشد .

متن کاوی تمام فعالیت­ هایی که به نوعی به دنبال کسب دانش از متن هستند را شامل می‌گردد. تحلیل داده ­های متنی توسط روش­های یادگیری ماشین، بازیابی اطلاعات هوشمند، پردازش زبان طبیعی، همگی در دسته فعالیت­های متن کاوی قرار می‌گیرند. تصویر 1-1 مراحل متعارف متن کاوی را نشان می­دهد. اولین گام در متن کاوی استفاده از روش­هایی برای ساختارمند نمودن متن­ها است. متن از مجموعه­ای از کلمات و عبارات زبان طبیعی تشکیل شده است. عموماً روش­های متن کاوی ابتدا کلمات و عبارات، را از متن استخراج می­کنند و سپس آن­ها را مورد پردازش قرار می­دهند، برای مثال برخی کلمات مثل حروف اضافه و ضمایر حذف، و کلمات باقی مانده ریشه­ یابی می­شوند. سپس مشخصات استخراج شده از متن­ها به روش­های مختلفی مقداردهی می­شوند، از میان این روش­ها می­توان به مقداردهی دودویی (بیان­گر ظاهر شدن/ نشدن کلمه در متن است)، فراوانی کلمه در متن، وزن TF-IDFاشاره کرد .در این تحقیق از روش وزن­دهی TF-IDFاستفاده شده است، که در قسمت بعد درباره این روش توضیح داده خواهد شد. با استفاده از مقادیر به دست آمده بردارهای ویژگی برای داده­ها ساخته و از بین مجموعه­ی داده­ ها، داده­ های آموزش و تست کلاس بندی کننده انتخاب می­شوند. پس از آن یک روش کلاس بندی انتخاب می­شود. کلاس بندی کننده با استفاده از داده­ های آموزش، آموزش داده و با استفاده از داده ­های تست ارزیابی می­شود.



ادامه مطلب...
پایان نامه استفاده از الگوریتم ژنتیک و منطق فازی برای بهینه سازی منابع بازار براساس شبکه بندی

موضوع :استفاده از الگوریتم ژنتیک و منطق فازی برای بهینه سازی منابع بازار براساس شبکه بندی

تعداد صفحات : 124

مقدمه

1-1 مدیریت منابع و زمانبندی در گرید

امروزه فن آوری محاسبات گرید،به عنوان مدل و رهیافتی نو جهت حل مسایل پیچیده و بزرگ در علوممهندسی،صنعت و تجارت مطرح شده است و هر روز بر تعداد برنامه های کاربردی متفاوتی که از زیر ساخت گرید به منظور تامین نیازهای محاسباتی،ذخیره سازی اطلاعات و سایر موارد بهره برداری می کنند،افزوده می شود.مسایلی که توسط گرید حل می شوند معمولاً مسایلی هستند که به نیاز به حجم محاسباتی بالا و یا حجم زیاد داده و ذخیره سازی دارند و ممکن است داده های ورودی مورد نیاز آنها،در میان سایتهای مختلف توزیع شده باشد.

جهت حل این مسایل،گرید یک بستر محاسباتی/ارتباطی ارائه می کند که در آن،قابلیت ها و امکانات و کیفیت سرویس کلیه منابع و بالاخص منابع محاسباتی در کنار یکدیگر مجتمع شده است و دیدی از یک ماشین مجازی بسیار قدرتمند در اختیار برنامه های کاربردی جهت اجرا قرار می گیرد.

ذکر شد که گرید طبق تعریف،هیچ محدودیتی از نظر محدوده جغرافیایی تحت پوشش ندارند بنابراین منابع در دسترس یک گرید،به لحاظ جغرافیایی توزیع شده هستند و حتی ممکن است ناهمگن نیز باشند.منابع در سایتهای مختلف قرار دارند و متعلق به سازمانها و نهادهای متفاوت هستند و هر سازمان ،سیاست های مدیریتی خود را بر نحوه به اشتراک گذاری و دسترسی به منابعش اعمال می کند.

از طرف دیگر،همانطوری که گفته شد،محیط گرید یک محیط اختیاری و پویاست،به این معنا که بر خلاف کلاسترها که معمولاً نرخ تعیین منابع در دسترس،در آنها کم است،در سیستمهای گرید،ماشینها و به طور کلی،کلیه منابع در دسترس گرید در طول زمان ممکن است تغییر کنند.

مشاهده می شود که محیط گرید،به لحاظ منابع تحت پوشش،محیطی بسیار پیچیده است.فاصله های جغرافیایی زیاد منابع توزیع شده،معماریها و سیستم عاملهای متفاوت ماشینهای مختلف،تفاوت ها در روشهای دستیابی به هر یک از منابع،متغیر بودن محیط به لحاظ منابع دردسترس و در نهایت وجود سیاست های مختلف در دسترسی به منابع،همه و همه مسائل پیچیده ای هستند که گرید باید با آنها دست و پنجه نرم کند.کاملاً واضح است مدیریت موثر منابع،امری حیاتی در سیستمهای گرید محسوب می شود و به علاوه،زمانبندی باید به نحو احسن در این سیستم ها انجام شود تا از یک طرف کاربران و برنامه های کاربردی به بهترین نحو سرویس دریافت کنند و از طرف دیگر از کلیه منابع گرید،بهره برداری بهینه و حداکثر صورت گیرد.در واقع می توان گفت،کارآمدی هر سیستم گرید،به میزان زیادی در گرو کارآیی و موثر بودن روشهای مدیریت منابع و نیز سیاست ها و مکانیزمهای مورد استفاده در اجرای وظایف در این محیط می باشد.زیرا عمل تقسیم بار در سیستم های گرید،تا چه حد حیاتی و بحرانی است،زیرا استفاده موثر از تقسیم بار در سیستم های گرید،تا حد زیادی حیاتی و بحرانی است،زیرا استفاده موثر از تقسیم بار،هم به نفع مالکان ماشینها خواهد بود و هم به نفع مشتریان منابع.

1-2کلیات مدیریت و زمانبندی در سیستم های گرید

1-2-1 انواع منابع در محیط گرید

محیط گرید،مجموعه ای متشکل از ماشینهای محاسباتی است که گاهی عناوینی مانند،منبع،عضو،پردازشگر گرید،واگذار کننده(کارها)و میزبان به این ماشینها داده می شود.تمامی این ماشینها در واقع منابع گرید را تشکیل می دهند.دسترسی به برخی ماشینها ممکن است توسط همه کاربران امکانپذیر باشد،اما ممکن است ماشینهایی نیز وجود داشته باشند که دسترسی به  آنها،قیود و شرایط و محدودیت های خاص خود را داشته باشد.

    

1-2-1-1منابع محاسباتی

مهمترین منبع در هر سیستم گرید،منابع محاسباتی هستند.استفاده از یک منبع محاسباتی،به معنای استفاده از سیکلهای پردازنده ماشینهای مختلف در گرید،جهت اجرای برنامه های کاربردی است.پردازنده های ماشینهای مختلف،ممکن است به لحاظ سرعت،معماری و فاکتورهای مرتبط دیگری مانند حافظه اصلی،نحوه اتصالات با یکدیگر(در کامپیوتر های چند پردازنده)و غیره با یکدیگر تفاوت داشته باشند.

1-2-1-2 منابع ذخیره سازی

بعد از منابع محاسباتی،پرکاربردترین منابع مورد استفاده در محیط گرید را منابع ذخیره سازی داده ها تشکیل می دهند.یک نوع خاص از گرید،اصطلاحاً گرید داده است که توسط آن،می توان انبار داده مجازی با ظرفیت بسیار بالا داشت(با استفاده از تجمیع منابع ذخیره سازی ماشینهای توزیع شده مختلف به صورت شفاف جهت ارائه یک انبار داده یکپارچه و منسجم و تکی مجازی).این انبار داده مجازی و غول پیکر،به صورت منطقی،کلیه داده های روی ماشینهای توزیع شده را مجتمع می کند و گرید داده،دسترسی یکسان(صرف نظر از معماری،سیستم عامل و سیستم مدیریت بانک اطلاعاتی ماشینهای توزیع شده)و کاملاً شفاف به داده و اطلاعات فراهم می کند.

1-2-1-3 منابع ارتباطی

در زمان مطرح شدن سیستمهای توزیع شده،پهنای باند ارتباطی در دسترس،بسیار محدود بود،اما امروز شاهد رشد سریع در ظرفیت ارتباطی میان ماشینهای مختلف هستیم و همین امر باعث شده  راه اندازی شبکه های گرید عملی تر شود،اما مشکل کمی پهنای باند ارتباطی و محدود بودن ظرفیت ارتباطی،هنوز هم به عنوان عاملی محدود کننده در پیاده سازی برنامه های کاربردی توزیع شده مطرح است،بنابراین،می توان گفت ظرفیت ارتباطات داده ای،به عنوان یکی از مهمترین منابع در گرید مطرح است.

 

1-3 نرم افزارها و مجوزهای نرم افزاری

ممکن است بر روی برخی ماشینها در هر گرید،نرم افزارهای گرانی نصب شده باشند که نصب آنها بر روی تمامی ماشینهای گرید،به دلیل پر هزینه بودن،امکانپذیر نباشد.با استفاده از یک گرید،می توان کارهایی را که احتیاج به این نرم افزارها دارند را به سمت ماشینهای دارنده آنها ارسال کرد تا بر روی آن ماشین اجرا گردند.زمانی که هزینه محوزهای نرم افزارها،قابل توجه باشد،این رهیافت،می تواند به مقدار زیادی از مخارج سازمان بکاهد و در هزینه ها،صرفه جویی ایجاد کند.

برخی از مجوزهای نرم افزاری،به این صورت هستند که نرم افزار را بتوان بر روی تمامی ماشینهای گرید نصب کرد،اما تعداد محدود و تعریف شده ای از کاربران،امکان استفاده همزمان از آن(بر روی ماشینهای مختلف)را دارند.در این نرم افزارها،یک سیستم مدیریت مجوز وجود دارد که در طول زمان مانیتور می کند در هر لحظه چند کپی از برنامه در حال اجرا در شبکه هستند و از اینکه تعداد نسخه های در حال اجرا،از عدد تعریف شده در مجوز بیشتر شود،جلوگیری می کند.در چنین سناریویی،زمانبندهای گرید می توانند طوری تنظیم شوند که چنین مجوزهای نرم افزاری را در محاسبات خود لحاظ کند و با در نظر گرفتن اولویت برنامه های کاربردیکه نیاز به اجرای این برنامه های مجوز دار،دارندو با اعمال دیگر سیاست های لازم،امکان استفاده حساب شده از مجوز نرم افزارها و متعادل سازی اجرای برنامه ها فرآهم می گردد.

1-4سایر منابع:تجهیزات خاص،ظرفیت ها،سیستم عاملها،معماریها و منابع مصنوعی

ماشینهای روی گرید،اعلب معماریها،سیستم عاملها،تجهیزات و ظرفیت های متفاوت دارند.هر کدام از این موارد در واقع بیانگر نوعی منبع در گرید هستند،زیرا ممکن است برنامه کاربردی،آنها را به عنوان یکی از ضوابطی ذکر کرده باشد که باید هنگام واگذاری کارها به ماشینهای گرید،جهت تعیین صلاحیت ماشین مقصد برای اجرای کار،بررسی شوند.

1-5 بررسی محیط گرید به لحاظ مدیریت و زمانبندی

محیط گرید،محیط پیچیده ای است و انواع آن منابع با سیاست های مختلف و در فواصل جغرافیایی دور از یکدیگر ممکن است قرار داشته باشند.مدیریت منابع در چنین محیطی بسایر پیچیده و زمانبندی بهینه در آن کاری بسیار دشوار است.به همین دلیل است که تقریباً مهمترین بحث در سیستمهای گرید،مدیریت بهینه منابع تحت پوشش و زمانبندی کارها است.بسایری از مباحث تحقیقاتی در حوزه گرید،امروزه در زمینه سیستمها،روشها و الگوریتمهای مدیریت منابع و زمانبندی در شبکه های گرید ارائه می شوند.

برای اینکه تصویر دقیق تری از محیط یک گرید بدهیم،در ابتدا لازم است ماهیت خود برنامه های کاربردی و نیز کارهایی که در محیط گرید اجرا می شوند،شرح داده شود.تا زمانی که ماهیت برنامه های کاربردی توزیع شده و کارها در گرید بررسی نشوند،نمی توان درک درستی نسبت به محیط از دیدگاه مدیریت منابع و زمانبندی داشت.از سوی دیگر،در واقع درست است که می گوییم کاربران و برنامه های کاربردی از منابع گرید استفاده می کنند،اما در نهایت این برنامه های کاربردی هستند که از منابع گرید استفاده می کنند و کاربر از طریق این برنامه کاربردی است که منابع گرید را در اختیار می گیرد.نکته دیگری که باید ذکر کرد این است که،گاهاً دو کلمه برنامه کاربردی و کار اشتباهاً به جای یکدیگر به کار برده می شوند.اما خصوصاً در محیط گرید،باید تفاوت اساسی میان آنها قائل شد.

1-6 نگاهی دقیق به برنامه های کاربردی و کارها در محیط گرید

اگرچه ممکن است طیف وسیعی از منابع مختلف در گرید میان کاربران به اشتراک گذارده شده باشد،اما دسترسی به این منابع از طریق اجرای یک برنامه کاربردی یا یک کار خواهد بود.گاهی دو اصطلاح برنامه کاربردی و کار اشتباهاً به جای یکدیگر به کار برده می شوند.در سیستمهای گرید اصطلاح برنامه کاربردی به بالاترین واحد پردازشی گفته می شود که توسط کاربران جهت اجرا به گرید واگذار می گردد.هر برنامه کاربردی ممکن است به یک یا چند کار شکسته شود و سپس این کار(کارها)به روی ماشین(ماشینهای)پردازشگر توسط سرویس دهنده گرید جهت اجرا ارسال(واگذار)خواهد شد.پس در عمل برنامه کاربردی است که جهت اجرا توسط کاربر به گرید واگذار    می شود،اما با شکسته شدن یک برنامه کاربردی به یک یا چند کار،در عمل،کار است که توسط سرویس دهنده گرید به ماشین پردازشگر جهت اجرا واگذار می گردد و کار است که بر روی ماشین پردازشگر در عمل اجرا خواهد شد.زمانبندی نیز در مورد کارها صورت می گیرد.

برنامه کاربردی را بالاترین سطح یک برنامه در گرید می دانیم که ممکن است به تعدادی کار توزیع شده ویا موازی شکسته شود.بنابراین،هر برنامه کاربردی به صورت مجموعه ای از کارها طوری سازماندهی می شود که کارها بتوانند به صورت توزیع شده ویا موازی بر روی ماشینهای مختلف اجرا شوند.برخی سیستمهای گرید این امکان را می دهند که کارها بتوانند در طول اجرا با یکدیگر تعاملهای چند باره آسنکرون یا سنکرون داشته باشند و مرتباً میان یکدیگر در طول اجرا داده هایی را رد و بدل کنند،اما گاهی اوقات سیستم گرید صرفاً این امکان را دارد که خروجی نهایی یک کار از یک برنامه کاربردی،بتواند ورودی کاردیگری از همان برنامه کاربردی باشد(به نوعی تعامل یک باره آن هم صرفاًدر انتها و خاتمه اجرای یک کار)و سپس با بررسی وابستگی کارها به یکدیگر،آنها را به ترتیبی اجرا      می کنند که چنین اتفاقی بیافتد.با بررسی دقیق کارها،می توان کارهایی را که مستقل از یکدیگر هستند به صورت همزمان و موازی اجرا کرد ولی کارهایی که به نتایج یکدیگر نیازمندند،باید به ترتیب لازم،اجرا گردند.

واحد کاری را یک واحد اجرایی می دانیم که عملاً به یک ماشین پردازشگر جهت اجرا واگذار خواهد شد و همانطوری که گفتیم،یک واحد کاری تمامی اطلاعاتی را که جهت اجرای یک برنامه لازم است در بر  می گیرد:خود برنامه اجرایی(یا اشاره گری به محل نگهداری ان بر روی یک محل مشترک)،کلیه داده های ورودی مورد نیاز برنامه(یا اشاره گرهایی به محل داده های ورودی)،اطلاعاتی در مورد اینکه خروجیهای برنامه چگونه و کجا باید ذخیره شوند،لیست کلیه نیازمندیهایی(منابع)که برای اجرای برنامه لازم است(پارامترهایی مانند معماری،سیستم عامل،مولفه های نرم افزاری،پردازنده،حافظه اصلی،ظرفیت دیسک سخت،پهنای باند و…)،پارامترهای کیفیت سرویس،اولویت برنامه و…همه و همه مواردی هستند که در واحد کاری وجود دارند.گاهی اوقات یک برنامه کاربردی در واحد کاری قرار   می گیرد و توسط کاربر به زمانبند گرید ارسال می شود.در این حالت واحد کاری،حاوی اطلاعات کلیه زیربرنامه (کارها)و بیانگر نحوه ارتباط این کارها به یکدیگر و کلیه مواردی است که جهت اجرای توزیع شده تمامی کارها لازم است.گاهی منظور از واحد کاری،مفهومی سطح پایین تر از برنامه کاربردی است و در واقع یک کار به همراه کلیه اطلاعات مورد نیاز است که باید در نهایت بر روی ماشین پردازشگر اجرا شود و اسن واحد کاری،توسط زمانبند گرید به ماشین پردازشگر ارسال می شود.

کارها واحدهای اجرایی هستند که در نهایت بر روی یک ماشین پردازشگر گرید اجرا خواهند شد.آنها ممکن است محاسباتی انجام دهند،داده ها را از مکانی و شکلی به مکانی و شکل دیگر منتقل کنند،داده هایی را جمع آوری کنند،ارتباطاتی با سایر کارها در گرید یا با دنیای خارج گرید برقرار کنند،دستوراتی را بر روی سایر ماشینها اجرا و الی آخر.برخی از سیستمهای گرید،این امکان را می دهند که یک کار نیز بتواند به نوبه خود به چند زیر-کار(subjob)شکسته شود.به شکل زیر توجه کنید.

نمای یک برنامه کاربردی گرید که به صورت مجموعه ای از کارها و زیر کارها سازماندهی شده است.

ذکر چند نکته در مورد برنامه های کاربردی گرید ضروری است:

1.برخی سیستمهای گرید،صرفاً از سازماندهی و شکستن دو سطحی پشتیبانی می کنند:برنامه کاربردی می تواند به تعدادی کار شکسته شود و هر کار نیز ممکن به تعدادی زیر-کار شکسته شود.اما برخی دیگر از سیستمها امکان شکستن در بیش از دو سطح را می دهند.به این طریق برنامه کاربردی می تواند به تعدادی کار شکسته شود(کار در این حالت موجودیت اجرایی نیست).هر کار ممکن است به تعدادی کار ویا task شکسته شود و در نهایت برگهای درخت،taskها هستند که برنامه های اجرایی هستند که به ماشینهای پردازشگر جهت اجرا واگذار خواهند شد.

2.سازماندهی برنامه کاربردی به تعدادی کار توزیع شده ویا موازی،ممکن است به دو صورت اتوماتیک و غیر اتوماتیک صورت گیرد.در سازماندهی اتوماتیک،برنامه کاربردی به صورت یک برنامه ترتیبی غول پیکر نوشته می شود(در یک زبان رویه ای یا شی گرا)و سپس متن این برنامه در اختیار سوپر کامپایلر پیشرفته گریدی گذارده می شود.سوپر کامپایلر،خود برنامه را تجزیه و تحلیل می کند و با تکنیک های فوق پیشرفته کامپایلر،آن را به تعدادی زیربرنامه طوری می شکند که این زیربرنامه ها،به صورت موازی و توزیع شده بر روی ماشینهای مختلف در گرید قابل اجرا باشند.در این حالت،خروجی سوپر کامپایلر،حالت سازماندهی شده برنامه کاربردی اولیه در قالب محموعه ای از کارهای توزیع پذیر و موازی است.البته،تولید چنین کامپایلر هایی بسیار دشوار است و متخصصان بسیاری بر روی آن هنوز به عنوان مبحثی در دست تحقیق،کار می کنند.در حالت غیر اتوماتیک،سیستم گرید در سطح انتزاعی بالا این امکان را می دهد که تولید کنندگان برنامه های کاربردی گرید،نتوانید به صورت ویژوال چنین درختی را(معمولاً در محیط مرورگرهای سبک وب)تولید کنند.در این سیستمها،ابتدا درخت برنامه کاربردی در قالب کلیه نودها(کارها و زیر کارها یا کارها و taskها،بسته به معماری مجاز قابل پشتیبانی توسط سیستم)و لبه ها(که معرف نحوه ارتباط باشند)رسم می شود.سپس نحوه ارتباط نودها(به لحاظ ارتباطات سنکرون و آسنکرون و یا به لحاظ وابستگیها)مشخص می شود.در ادامه نسخه اجرایی یا Source code مربوط به هر نود اجرایی(برگ درخت)مشخص می شود.کلیه اطلاعات و نیازمندیهای لازم آن،در قالب واحدهای کاری مجزا ذکر خواهد شد.ممکن است لازم باشد اطلاعات دیگری نیز،بسته به خود سیستم گرید،ارائه شود.در نهایت،کلیه این اطلاعات جهت زمانبندی و اجرا به زمانبند گرید داده خواهد شد.

اکنون که دید دقیقی نسبت به یک برنامه کاربردی در گرید به دست آوردیم،مشخص می شود زمانبندی و اجرای چنین برنامه هایی،خصوصاً در گرید های گسترده باچه مشکلات و معضلاتی روبرو است.به طور مثال،در سیستمهای گریدی که امکان ارتباط چند باره سنکرون وآسنکرون به کارهای یک برنامه کاربردی را می دهند،باید دقت شود کارهایی که نیاز به تعامل با یکدیگر دارند،به ماشینهایی که از لحاظ جغرافیایی فاصله زیادی دارند و یا بستر ارتباطی شبکه ای ضعیف میان آنها وجود دارد،واگذار نشوند.در سیستمهای گریدی که امکان ارتباطات فوق را به کارها نمی دهند ولی در عوض وابستگیهای آنها را در نظر می گیرند و خروجیهای آنها را در اختیار یکدیگر       می گذارند،زمانبند گرید باید با رعایت ترتیب لازم،کارها را اجرا کند.به علاوه باید کارهای مستقلی را که می توانند با یکدیگر موازی اجرا شوند شناسایی کند تا برنامه در بهترین حالت خود اجرا شود و نیز اگر خروجی یک کار،ورودی کار دیگر است،منطقی این است که هر دو به ترتیب بر روی یک ماشین پردازشگر واحد اجرا شوند تا از نقل و انتقالات بی مورد داده های احتمالاً حجیم،در سیستم تا حد ممکن جلوگیری شود.نکته دیگر این که،در زمانبندیها،باید دقت شود اگر داده های ورودی یک کار،به همراه خود کار در واحد کاری قرار نگرفته اند(صرفاً اشاره گرهایی به محل آنها در واحد کاری آمده است)،حتی الامکان باید کار بر روی ماشین نزدیک(به لحاظ سرعت و ارتباطات شبکه ای)به ماشین نگهداری کننده داده های ورودی اجرا شود.همین مطلب در مورد داده های خروجی زمانی که باید بر روی یک ماشین راه دور ذخیره شوند نیز صدق می کند.در واقع در تشخیص بهترین ماشین جهت واگذاری یک کار،به علاوه بر سرعت پردازنده،میزان بار روی ماشین پردازشگر و…باید چنین مواردی نیز کاملاً توسط زمانبند لحاظ شود.با ذکر تمامی نکات فوق،می توان دریافت زمانبندی و مدیریت منابع در محیط گرید،چه کار دشواری(مثلاً در قیاس با سیستمهای کلاستر عادی)است.

 

ادامه مطلب...
پایان نامه شناسایی چهره در میان تصاویر رنگی با تکنیک های مبتنی بر رنگ چهره انسان

پایان نامه برای دریافت درجه کارشناسی ارشد “M.Sc” مهندسی کامپیوتر- نرم افزار
عنوان :  شناسایی چهره در میان تصاویر رنگی با تکنیک های مبتنی بر رنگ چهره انسان

تعداد صفحات : 115

چکیده:
امروزه تکنولوژی های نوین جهت تعیین هویت اشخاص، بر پایه روش های بیومتریک بنیان نهاده شده اند. در میان روش ها و رویه های مختلفی که برای تعیین هویت افراد ارائه شده اند، روش هایی که از ویژگی های فیزیکی استفاده می کنند، علی رغم مشکلاتی که هنگام پیاده سازی و بکارگیری دارند، قابل اعتمادتر از آنهایی هستند که ویژگی های زیستی را بکار می گیرند. هدف شناسایی چهره، تعیین تمام نواحی تصویر است که در آن حداقل یک چهره وجود دارد. رسیدن به چنین هدفی با مشکلات فراوانی از قبیل وضعیت غیر  پایدار چهره، اندازه، شکل، رنگ و بافت چهره، مواجه است. در این تحقیق، بعد از بررسی کلی رنگ، فضاهای رنگی و روش های ارائه ی فضاهای رنگ پوست انسان، مدل جدیدی برای یافتن چهره(های) انسان در یک تصویر ارائه شده است. ایده این مدل بر اساس ترکیب  روش های مختلف می باشد. در واقع الگوریتم پایه گذاری شده، چندین مرحله دارد که هر کدام از مراحل روشی متفاوت در رسیدن به مرحله نهایی نتایج برگزیده اند. در ابتدا با استفاده از الگوریتمی مبتنی بر تصاویر خاکستری، ناحیه های کاندید، پیدا شده و در ادامه با  استفاده از ویژگی های رنگی و هندسی چهره انسان، تصمیم گیری روی ناحیه های کاندید، مبنی بر چهره یا عدم چهره بودن، انجام خواهد شد. برای رسیدن به این هدف، ابتدا داده های آموزشی جمع آوری شده و با استفاده از آنها آستانه های مختلف رنگ پوست انسان  ر فضاهای رنگ گوناگون، به دست آمده است. در ادامه آستانه های موجود به کار گرفته شده اند تا به همراه ویژگی های هندسی صورت، به هر ناحیه کاندید چهره، امتیازی تعلق بگیرد. امتیاز به دست آمده، عامل تصمیم گیری در مورد چهره یا غیرچهره بودن یک  ناحیه می باشد. ارزیابی الگوریتم ارائه شده بر اساس مدل اشاره شده، روی پایگاه داده شخصی شامل چندین شخص در یک تصویر که رو به دوربین ایستاده اند، نشان داده است، که سیستم ارائه شده می تواند بین ۸۰% تا ۹۰% شناسایی درست و در حدود ۱۰% تا ۱۵% شناسایی نادرست، داشته باشد.

فصل اول: مقدمه ای بر شناسایی چهره در دنیای به هم پیوسته و پیچیده امروزی، نگهداری و امنیت اطلاعات، بسیار مهم و مشکل شده است، هر چند وقت یکبار در مورد تبهکاری های مربوط به کارتهای اعتباری، هک شدن کامپیوترها و نقض امنیت در شبکه ها و دولت ها،  یزهایی می شنویم. در بیشتر این کلاهبرداری ها، افراد خاطی، به نحوی امنیت سیستم ها را با عبور از سد محافظت های از قبل تعیین شده، مورد دستبرد قرار داده اند. تکنولوژی های جدید برای تعیین هویت منحصر به فرد هر کس، بر پایه روش های بیومتریک بنیان  نهاده شده اند. این روش ها، روشهای خودکاری از بازبینی و تشخیص هویت موجودات زنده در زمینه ویژگی های فیزیکی، از قبیل اثر انگشت، وضعیت چهره و یا سایر رفتارهای افراد، از قبیل دست دادن، می باشند. در میان روش ها و رویه های مختلفی که برای تعیین  هویت افراد ارائه شده اند، روش هایی که از ویژگی های فیزیکی استفاده می کنند، علی رغم مشکلاتی که هنگام پیاده سازی و بکارگیری دارند، قابل اعتمادتر از آنهایی هستند که ویژگی های فیزیولوژیکی(زیستی) را بکار می گیرند. با بررسی زندگی دیجیتالی بشر، به  راحتی متوجه این نکته خواهیم شد که امروزه بشر با نیازهایی مواجه است که در سالهای قبل این نیازها وجود نداشت. این نیازها شامل سازمان، گروه و امنیت آنها می باشد. همیشه افزایش جمعیت و تحرک آن در جهت های مختلف، باعث بالا رفتن راه های اشتراک  اطلاعات و انتقال آن، شده است، که این تغییر مکان ها، معمولا در ساختارهای پیچیده ای انجام می شوند. همانطور که تحرک، برگرفته از رفتارهای انسانی و اطلاعاتی است، امنیت نیز اطلاعات شخصی و مقادیر آنها را شامل می شود. برای نمونه، روش تشخیص چهره،  یکی از چندین روش بیومتریک است که دارای دقت بالا بوده و می تواند تا مدت ها قابل اتکا باشد. برخلاف روش های دیگر اعتبار سنجی، که لازم است تا کاربر حداقل شناسه ورودی و کلمه عبور، را به یاد داشته باشد، در روش های مبتنی بر تشخیص چهره، کاربر خیلی  راحت با چهره خودش، می تواند در پروسه اعتبار سنجی وارد شود. همچنین روش های مطمئن زیادی از تشخیص بیومتریک اشخاص، وجود دارد. برای مثال، روش های آنالیز اثر انگشت یا 4 بررسی عنبیه و شبکیه اشخاص نیز، هم اکنون وجود دارند. به این دلیل که یک  تصویر چهره، می تواند از روبرو یا حتی نیم رخ باشد، بیشتر اوقات بدون همکاری و اطلاع شخص مورد نظر، عمل می کند.
تصاویری که در آنها چهره وجود دارد، برای فعل و انفعالات کامپیوتری هوشمند مبتنی بر دید انسان ضروری می باشند و تلاش های تحقیقی در پردازش چهره شامل مواردی از قبیل شناسایی چهره، جستجوی صورت، برآورد حالت چهره و شناسایی حالات چهره می باشند.  رای ساخت سیستم های تمام خودکاری که اطلاعات موجود در تصاویر چهره را تحلیل و از آن استفاده می کنند، نیازمند الگوریتم های کارآ و دقیق برای شناسایی چهره هستیم. یک تصویر را در نظر بگیرید، هدف شناسایی چهره( فارغ از موقعیت سه بعدی آن،  جهت و وضعیت نوری تصویر)، تعیین تمام نواحی تصویر است که در آن حداقل یک چهره وجود دارد. چنین مساًله ای با چالش و مشکلات فراوانی مواجه است، زیرا وضعیت چهره ها ثابت نبوده و معمولا از لحاظ اندازه، شکل، رنگ و بافت دچار تغییر می شوند.   

ادامه مطلب...
دانلود پایان نامه مدلی کارا برای ساخت پیکره متنی موازی از روی پیکره متنی تطبیقی

پایان‌نامه کارشناسی ارشد در رشته مهندسی کامپیوتر (نرم افزار)

عنوان:مدلی کارا برای ساخت پیکره متنی موازی از روی پیکره متنی تطبیقی

تعداد صفحات : 98

چکیده:

اغلب رویکردهای نوین ترجمه در حوزه ترجمه ماشینی از جمله ترجمه ماشینی آماری، ترجمه ماشینی مبتنی بر مثال و ترجمه ماشینی ترکیبی از مجموعه متون هم‌ترجمه تحت عنوان پیکره‌های متنی موازی به عنوان داده آموزشی اصلی استفاده می‌کنند. اما برای اغلب زبان‌ها پیکره‌های موازی به میزان بسیار کمی در دسترس هستند و یا مربوط به دامنه خاصی از نوشتجات می‌شوند. در طرف دیگر پیکره‌های تطبیقی قرار دارند که مواد اولیه آنها به راحتی به دست می‌آید. پیکره‌های تطبیقی شامل متون هم‌ترجمه نیستند اما در آن هر دو متن در دو زبان مختلف از نظر شباهت معیارهایی چون محتوا، تاریخ انتشار، عنوان و … با یکدیگر قابل تطبیق هستند.

پیکره‌های تطبیقی شامل جملاتی هستند که می‌توانند ترجمه خوبی برای یکدیگر باشند. هدف این رساله ساخت خودکار پیکره موازی با استخراج اینگونه جملات از پیکره تطبیقی است. مدلی که در این پژوهش ارائه می‌شود از سه مرحله اصلی تشکیل می‌شود: انتخاب جفت جملات کاندیدای موازی بودن با استفاده از فیلتر نسبت طول جملات و فیلتر تعداد کلمات مشترک  انتخاب جفت جملات موازی با استفاده از طبقه‌بند آنتروپی بیشینه و در نظر گرفتن ویژگی‌های مربوط به طول دو جمله، کلمات مشترک آنها و ویژگی‌های مبتنی بر همترازی در سطح کلمه بین دو جمله  بالابردن دقت جفت جملات استخراج شده با انتخاب تنها یکی از جملات جفت شده با هر جمله. این کار را می‌توان بوسیله محاسبه نزدیکی آن جمله با ترجمه جملات جفت شده از طرف مقابل توسط معیار TER و انتخاب نزدیک‌ترین جمله انجام داد.

در انتها کارآیی مدل ارائه شده در دو بخش  ارزیابی طبقه‌بند آنتروپی بیشینه طراحی شده و  ارزیابی میزان سودمندی جفت جملات موازی استخراج شده در بهبود کیفیت ترجمه ماشینی بررسی می‌شود.

فصل اول: مقدمه

1-1- مقدمه

به دلیل افزایش ارتباطات متقابل منطقه‌ای و نیاز برای تبادل اطلاعات، تقاضا برای ترجمه زبان بسیار افزایش یافته است. بسیاری از نوشتجات نیاز به ترجمه دارند از جمله مستندات علمی و فنی، دستورالعمل‌های راهنما، مستندات حقوقی، کتاب‌های درسی، بروشورهای تبلیغاتی، اخبار روزنامه‌ها و غیره؛ که ترجمه برخی از آنها سخت و چالش برانگیز است اما اکثرا خسته کننده و تکراری هستند و در عین حال به انسجام و دقت نیاز دارند. برآوردن نیازهای روز افزون ترجمه برای مترجمان حرفه‌ای دشوار است. در چنین موقعیتی ترجمه ماشینی می‌تواند به عنوان یک جایگزین به کار گرفته شود.

ترجمه ماشینی بعد از 65 سال یکی از قدیمی‌ترین کاربردهای کامپیوتر است. در طول سال‌ها، ترجمه ماشینی مرکز توجه تحقیقات زبان‌شناسان، روان‌شناسان، فیلسوفان، دانشمندان و مهندسان علم کامپیوتر بوده است. اغراق نیست اگر بگوییم کارهای جدید در حوزه ترجمه ماشینی، به طور قابل ملاحظه‌ای در توسعه زمینه‌هایی نظیر زبان شناسی رایانه‌ای، هوش مصنوعی و پردازش زبان‌های طبیعی برنامه‌گرا، مشارکت کرده است.

ترجمه ماشینی را می‌توان به این صورت تعریف کرد: “ترجمه از یک زبان طبیعی (زبان مبدأ) به زبان دیگر (زبان مقصد) با استفاده از سیستم‌های کامپیوتری شده و به همراه یا بدون کمک انسان”. کار پژوهشی در حوزه ترجمه ماشینی به هدف بزرگ ترجمه تمام خودکار با کیفیت بالا (قابل نشر) محدود نمی‌شود. غالبا ترجمه‌های ناهموار برای بازبینی موضوعات خارجی کافی است. تلاش‌های اخیر، در جهت ساخت کاربردهای محدودی در ترکیب با تشخیص گفتار به خصوص برای دستگاه‌های دستی می‌باشند. ترجمه ماشینی می‌تواند به عنوان پایه‌ای برای ویرایش‌های بعدی به کار گرفته شود، مترجم‌ها معمولا با ابزارهایی نظیر حافظه‌های ترجمه که از فناوری ترجمه ماشینی استفاده می‌کنند اما آنها را در کنترل خود قرار می‌دهند، استفاده می‌کنند.

ترجمه ماشینی یکی از حوزه‌های پژوهشی «زبانشناسی رایانه‌ای» است. تا کنون روش‌های مختلفی جهت خودکار کردن ترجمه ابداع شده است، که در نوشتجات حوزه ترجمه ماشینی به صورت‌های مختلفی دسته‌بندی شده‌اند. شکل 1-1 انواع روش‌های ترجمه ماشینی موجود را در قالب دسته‌بندی که در  آمده است نشان می‌دهد.

1-1-1- ترجمه ماشینی مبتنی بر فرهنگ لغت

این نوع ترجمه ماشینی مبتنی بر مدخل‌های فرهنگ لغت است؛ و در آن از معادل کلمه جهت تولید ترجمه استفاده می‌شود. اولین نسل ترجمه ماشینی (از اواخر دهه 1940 تا اواسط دهه 1960) کاملا بر مبنای فرهنگ لغت‌های الکترونیک بودند. این روش همچنان تا حدی در ترجمه عبارات و نه جملات مفید است. اکثر روش‌هایی که بعدا توسعه داده شدند کم یا بیش از فرهنگ لغات دوزبانه بهره می‌گیرند .

2-1-1- ترجمه ماشینی مبتنی بر قانون

ترجمه ماشینی مبتنی بر قانون با اطلاعات ریخت شناسی، نحوی و معنایی زبان‌های مبدأ و مقصد سر و کار دارد. قوانین زبانی از این اطلاعات ساخته می‌شوند. این روش می‌تواند با پدیده‌های مختلف زبانی مقابله کند و قابل گسترش و قابل نگهداشت است، اما استثنائات موجود در دستور زبان مشکلاتی به این سیستم می‌افزاید. همچنین فرآیند پژوهشی آن نیاز به سرمایه‌گذاری زیادی دارد. هدف ترجمه ماشینی مبتنی بر قانون تبدیل ساختارهای زبان مبدأ به ساختارهای زبان مقصد است. این روش رویکردهای مختلفی دارد.

– رویکرد مستقیم: کلمات زبان مبدأ بدون عبور از یک نمایش میانی ترجمه می‌شوند. در این روش به بستر متن، معنی و دامنه توجه نمی‌شود.

– رویکرد انتقالی: مدل انتقالی متعلق به نسل دوم ترجمه ماشینی است (از اواسط دهه 1960 تا دهه 1980). در این مدل، زبان مبدأ به یک انتزاع که نمایشی کمتر مختص به زبان است، انتقال می‌یابد. سپس یک نمایش معادل برای زبان مقصد (با همان سطح انتزاع) با استفاده از فرهنگ لغات دوزبانه و قوانین گرامری تولید می‌شود.

– میان زبانی: این روش متعلق به نسل سوم ترجمه ماشینی است. در این روش زبان مبدأ به یک زبان (نمایش) میانی تغییر شکل می‌دهد که این زبان میانی مستقل از هر دو زبان شرکت کننده (مبدأ و مقصد) در ترجمه است. سپس ترجمه برای زبان مقصد از این نمایش کمکی به دست می‌آید. از اینرو در این نوع سیستم تنها به دو ماژول تجزیه و ترکیب نیاز است. همچینن به دلیل مستقل بودن این روش از زبان‌های مبدأ و مقصد، بیشتر در ماشین‌های ترجمه چندزبانه استفاده می‌شود. این روش بر یک نمایش واحد از زبان‌های مختلف تأکید می‌کند.

3-1-1- ترجمه ماشینی مبتنی بر دانش

این روش با واژه‌نامه‌ای مفهومی‌که یک دامنه را نشان می‌دهد سر و کار دارد. این روش شامل دو مرحله تحلیل و تولید است. اجزای پایه‌ای یک ماشین ترجمه مبتنی بر دانش عبارتند از یک آنتولوژی از مفاهیم، واژه‌نامه و گرامر زبان مبدأ برای فرآیند تحلیل، واژه‌نامه و گرامر برای زبان مقصد و قوانین نگاشت بین نحو زبان میانی و زبان‌های مبدأ و مقصد.

4-1-1- ترجمه ماشینی مبتنی بر پیکره

رویکرد ترجمه ماشینی مبتنی بر پیکره‌های متنی از سال 1989 ظهور پیدا کرد و به طور وسیعی در حوزه ترجمه ماشینی به آن پرداخته شد؛ و به دلیل دقت بالای این روش در ترجمه، بر دیگر روش‌ها غلبه یافت. در این روش، دانش یا مدل ترجمه به طور خودکار از پیکره‌های متنی (مجموعه متون) دوزبانه گرفته می‌شود. از آنجایی که این رویکرد با حجم زیادی از داده‌ها کار می‌کند، ترجمه ماشینی مبتنی بر پیکره نامیده شده است. برخی از انواع روش‌های مبتنی بر پیکره در ادامه شرح داده می‌شوند.

ترجمه ماشینی آماری

با اینکه ایده اولیه ترجمه ماشینی آماری توسط وارن ویور در سال 1941 معرفی شد، اما از سال 1993 که این روش توسط محققان آی بی ام مدل شد به طور گسترده‌ای مورد استفاده قرار گرفت؛ به طوری‌که در حال حاضر ترجمه ماشینی آماری رایج‌ترین رویکرد در ترجمه ماشینی به شمار می‌آید. در روش ترجمه ماشینی آماری از مدل‌های آماری استفاده می‌شود که پارامترهای این مدل‌ها از متون دوزبانه یا همان «پیکره‌های موازی» استخراج می‌شوند. به عبارت دیگر سیستم ترجمه ماشینی آماری، احتمالات ترجمه را از پیکره موازی می‌آموزد و با استفاده از این احتمالات برای جملات ورودی که در فرآیند آموزش دیده نشده‌اند، ترجمه‌ای مناسب تولید می‌کند. در این روش از دو مدل عمده به نام مدل‌های مبتنی بر کلمه و مدل‌های مبتنی بر عبارت استفاده می‌شود.

ترجمه ماشینی مبتنی بر مثال

روشهای ترجمه ماشینی مبتنی بر مثال، روشهای مبتنی بر حافظه نیز نامیده شده‌اند. ایده این روش از سال 1980 در ژاپن شروع شد. این نوع سیستم‌ها تلاش می‌کنند تا جمله‌ای مشابه جمله ورودی در پیکره موازی پیدا کنند، و سپس با اِعمال تغییراتی بر روی جمله ترجمه شده که قبلا ذخیره شده، ترجمه جمله ورودی را تولید کنند.

ایده اولیه در این روش، استفاده از ترجمه‌های انسانی موجود برای ترجمه متن‌های جدید است. لذا کافی است متون جدید به قطعه‌های کوچک شکسته شود و ترجمه معادل این قطعات، در پایگاه داده‌ای از قطعات ترجمه شده جستجو شده و ترجمه مورد نظر تولید گردد. این روش دارای محدودیت دادگان می‌باشد. جمع‌آوری مجموعه مثال‌های بسیار بزرگ نیز کل زبان را پوشش نمی دهد. بنابراین معمولا این روش برای زیر مجموعه‌های محدودی از یک زبان استفاده می‌شود.

 

ادامه مطلب...
دانلود پایان نامه بررسی فناوری اطلاعات در حوزه بانکداری

بیان مسئله

توسعه و کاربری فناوری اطلاعات در حوزه های مختلف به ویژه در حوزه بانکداری، حاصل قابلیت های فناوری اطلاعات است که امروزه در دنیای کسب و کار با اقبال فراوان رو به رو شده است. انسان هزاره سوم در تلاش است با شتاب دادن به روند توسعه و کاربری فناوری اطلاعات در بخشهای مختلف نظام اجتماعی از الگوی سنتی فاصله بگیرد و الگویی جدید، متناسب با الزامات عصر اطلاعات ایجاد کند.

در این زمینه بسیاری از تامین کنندگان کالا وخدمات، طی دهه­های اخیر به سرعت به سرمایه گذاری روی فناوری­های نوین ارائه خدمات به مشتریان، به عنوان راهی برای کنترل هزینه­ها، جذب مشتریان جدید و تحقق انتظارات مشتریان روی آورده­اند و استفاده از این فناوری­های جدید همانند فروش اینترنتی را به عنوان یک ضرورت راهبردی در دستور کار خود قرار داده است.

فروش اینترنتی یکی از شاخه های بازاریابی الکترونیک است که در آن به مشتریان این امکان داده میشود تا از طریق اینترنت و با استفاده از وب سایت طراحی شده توسط شرکتها، از دامنه وسیعی از خدمات استفاده نمایند.

اگرچه اینترنت روش ارایه محصول شرکت ها را متحول کرده است اما مطالعات کمی در مورد پذیرش این خدمات از سوی مشتری صورت گرفته است. در واقع، مشتریان به سادگی به تجارت های تحت وب اطمینان نمی کنند و اطلاعات خود را در اختیار آنها قرار نمی­دهند. از طرفی   می­توان گفت اطمینان مجموعه ای از تمایلات مشتریان برای شرکت در معاملات تحت وب را در برمی­گیرد. اطمینان مصرف کنندگان به تجارت الکترونیک در مقایسه با معاملات رو در رو دارای ابعاد منحصر به فردی مانند استفاده گسترده از تکنولوژی در معاملات، طی مسافت، ماهیت غیر شخصی محیط اینترنت است.

اینترنت مزایای زیادی هم برای فروشندگان و هم برای مشتریان خود داشته است، با استفاده از این فناوری نه تنها مشتریان می­توانند در هر زمان و مکان خرید خود را انجام دهند، بلکه کاهش هزینه ها و افزایش بهره وری را برای فروشگاه­ها نیز به ارمغان آورده است.

بر اساس آمار منتشر شده بر روی وب سایت اینترنت ورد استتس تعداد کاربران اینترنت ایران در سال 2011 نسبت به سال گذشته 3 میلیون و 300 هزار و نسبت به سال 2009 در حدود 4 میلیون و 300 هزار نفر افزایش داشته است. آمار این وب سایت در سال 2010 تعداد کاربران ایرانی را 33 میلیون و 200 هزار نفر اعلام کرده بود در حالی که آمار جدید این وب سایت تعداد کاربران ایرانی را 36 میلیون و 500 هزار نفر اعلام کرده است، تعدادی که بیش از نیمی از کاربران اینترنت در کل خاور میانه را تشکیل داده است در حالی که بهبود چندانی در سرعت و کیفیت ارائه خدمات آن مشاهده نمیشود. با توجه به مزایای خرید اینترنتی و آمار بالای کاربران اینترنت در ایران آمارها نشان دهنده ی عدم استفاده از ظرفیت کامل فضای مجازی برای ارائه ی این خدمات است و حاکی از آن است که کمتر از 40%دارندگان کارتهای بانکی خرید اینترنتی انجام میدهند. (مرادی و دیگران، 1389 ).

پذیرش خدمات الکترونیکی توسط مصرف کنندگان و تمایل به استفاده از هر یک از خدمات از جمله خرید اینترنتی ارتباط مستقیم با ادراک آنها از ویژگی خدمت مورد نظردارد (مرادی و دیگران1389).

بنابراین با توجه به مطالب فوق بررسی این مطلب که اطمینان مصرف کننده در خریدهای الکترونیکی چه نقش و تأثیری دارد می تواند از جمله سؤالات اساسی این تحقیق باشد.

2.1 ضرورت و اولویت تحقیق

مطالعات متعددی نشانگر این است که ریسک ادراک شده و اعتماد به عنوان دو عامل تاثیرگذار در رفتار افراد در مقابل استفاده از خدمات اینترنتی مطرح می­باشد. ریسک ادراکی را میتوان به عنوان ادراک از امکان رخداد پیامدهایی مغایر با پیامدهای مطلوب به دلیل استفاده از خرید اینترنتی در زمینه های روانی، اجتماعی، زمان، حریم شخصی، مالی و عملکردی تعریف نمود، در واقع ریسک ادراکی در بافت خرید اینترنتی به امنیت و قابلیت اعتماد معاملات و تبادلات از طریق اینترنت اشاره دارد.

در حوزه خدمات، خدمات مالی در مقایسه با انواع دیگر خدمات عمدتا به خاطر پیچیدگی و غیر قابل مقایسه بودن با محصولات خدماتی و درجه بالایی از ریسک مربوط به تصمیم گیری برای خرید، خدمت منحصر به فردی در نظر گرفته می­شود (کاظمی و مهرورزی، 1389). ریسک ادراک شده به عنوان یک مفهوم روانشناسی یکی از عوامل اصلی در عدم استفاده مشتریان از خدمات خرید از طریق اینترنت مطرح می­شود، در حالی که روانشناسان اجتماعی اعتماد را به عنوان عامل اصلی کاهش دهنده ریسک که بر این مشکل غلبه می­کند، ارائه می­کنند.

اعتماد عبارت است از انتظاری که گفته، قول یا حرف دیگری قابل اطمینان است (غفاری آشتیانی و دیگران، 1390). اعتماد به عنوان یک فاکتور ضروری در معرفی یک محصول یا سرویس جدید در حیطه تکنولوژی اطلاعات (مثل بانکداری اینترنتی) مطرح می­باشد، اعتماد در خرید اینترنتی انتظاراتی است که یک سرویس یا محصول خرید اینترنتی باید برآورده کند یا تعهداتی است که باید انجام دهد.

اعتماد به عنوان قلب سیستم خرید اینترنتی مطرح شده است، در واقع اعتماد به عنوان عنصری مهم بر رفتار مصرف کننده تاثیر میگذارد و موفقیت پذیرش تکنولوژیهای جدید را تعیین می­کند.

با توجه به روند رو به گسترش و توسعه فناوری اطلاعات و تجارت الکترونیکی و نقش اینترنت در سراسر جهان و از جمله ایران میتوان نتیجه گرفت که توجه به این موضوعات و برنامه ریزی در جهت آنها یک ضرورت اجتناب ناپذیر است.

یک برنامه ریزی خوب و مناسب آن است که با شناخت دقیق مشکلات و موانع از یک طرف و شناخت منابع و پتانسیلها از طرف دیگر همراه باشد. در این راستا مبحث شناسایی ریسک ادراک شده در استفاده از فروشگاههای اینترنتی شایان توجه و بررسی میباشد.

همچنین با توجه به وجود رابطه مثبت بین طول رابطه مشتری با ادراک و پنداشتی که مشتری از میزان قابل اعتماد بودن دارد، لزوم شناخت ریسک ادراک شده توسط مشتریان و مدیریت بر آنها در جهت کاهش ریسک و جلب اطمینان هر چه بیشتر مشتریان، بیشتر احساس می­گردد (مرادی و دیگران، 1389).

با توجه به مطالب فوق و محرز شدن نقش و اهمیت متغیرهای اعتماد و ریسک ادراک شده در استفاده از خدمات اینترنتی پژوهش حاضر به دنبال بررسی تأثیر همزمان این دو متغیر بر پذیرش خدمات بانکداری اینترنتی می باشد.

3.1 سوالات تحقیق

سوالاتی که ما در این پایان نامه به دنبال پاسخ به آنها هستیم عبارتند از:

  1. ریسک ادراک شده از خدمات خرید اینترنتی با استفاده از این خدمات چه رابطه ای دارند؟
  2. اطمینان مشتریان به فروشگاه­های اینترنتی با ریسک اداراک شده استفاده از خدمات آنها چه رابطه ای دارند؟
  3. اطمینان مشتریان به فروشگاه­های اینترنتی با ادراک مشتریان از توانایی آنها برای ارائه خدمات اینترنتی چه رابطه ای دارند؟
  4. اعتماد مشتریان به توانایی فروشگاه­های اینترنتی برای ارائه خدمات با قصد استفاده از این خدمات چه رابطه ای دارند؟

4.1 اهداف تحقیق

با توجه به رقابتی شدن فضای اقتصادی، توجه به نیازهای مشتریان و رفع آنها به عنوان یک هدف کاربردی، این تحقیق می تواند تا حد زیادی بنگاههای مورد مطالعه را در رسیدن به جایگاهی بالاتر از سایر رقبای خود موفق کند.

با اینکه گسترش فناوری­های رایانه­ای راهی نو به سوی بازارهای جدید در سراسر دنیا گشوده است و اکثر شرکت ها در کشورهای مختلف وارد این عرصه از تجارت شده اند، در کشور ما توجه به این امر مغفول مانده است در حالی که با توجه به شرایط اقتصادی کشور می تواند سودآوری زیادی را برای شرکت های داخلی داشته باشد البته اگر با نیازهای مشتریان و جامعه مطابقت داشته باشد.

اهداف کاربرداری: با توجه به ماهیت موضوع تمامی شرکت های فروش اینترنتی و شرکت هایی دیگر که در راستای گسترش خدمات و فروش الکترونیکی گام بر می دارند می توانند جرء بهره برداران این تحقیق باشند.

5.1 شرح اجمالی روش تحقیق

1.5.1 شرح کامل روش تحقیق بر حسب هدف، نوع داده ها و نحوه اجراء

از آنجا که در این تحقیق محقق به دنبال چگونه بودن موضوع است به طوریکه شامل جمع‌آوری اطلاعات برای پاسخ به سؤالات مربوط به وضعیت فعلی موضوع مورد مطالعه می‌شود و هم جنبه کاربردی دارد و هم جنبه مبنایی، که در بعد کاربردی از نتایج این تحقیقات در تصمیم‌گیری­ها و سیاست‌گذاری­ها و همچنین برنامه‌ریزی­ ها می­ توان استفاده کرد، از روش تحقیق توصیفی از نوع پیمایشی و علی برای بررسی این موضوع استفاده خواهد شد.

ادامه مطلب...
پایان نامه مدلی مبتنی بر نگاشت بیتی و تابع دستور جهت کنترل دسترسی در بانک اطلاعات XML

عنوان :مدلی مبتنی بر نگاشت بیتی و تابع دستور جهت کنترل دسترسی در بانک اطلاعات XML

تعداد صفحات : 111

چکیده

امروزه اطلاعات مستقر بر روی وب به سرعت در حال افزایش است و حجم بسیار زیادی از این اطلاعات در قالب XML ظاهر شده است. یکی از مزایای اصلی استفاده از XML ، نمایش داده‌های غیر ساختیافته است که قابلیت‌های بسیاری را در اختیار کاربران می‌گذارد. ویژگی غیر ساختیافته بودن اطلاعات و انعطاف‌پذیری XML باعث همه‌گیر شدن استفاده از آن شده و در بانک‌های اطلاعات نیز مورد توجه قرار گرفته است. بنابراین برقراری امنیت در مستندات XML یک نیاز و بحث کلیدی می‌باشد. داده‌ها به هر شکلی که ذخیره شوند باید از تهدیدهای ممکن (سرقت، خرابکاری، دستکاری و مواردی از این قبیل) محافظت گردند. برای جلوگیری از تهدیدها، روش‌ها و مدل‌هایی را در بانک‌های اطلاعات طرح‌ریزی و پیاده‌سازی نموده‌اند. مهمترین این مدل‌ها، مدل کنترل دسترسی می‌باشد. این مدل خود مبتنی بر روش‌های مختلفی می‌باشد که در بانک‌های اطلاعات گوناگون به کار گرفته می‌شوند. در این پایان‌نامه پس از بررسی روش‌های کنترل دسترسی، روشی جدید مبتنی بر نگاشت بیتی و تابع دستور جهت کنترل دسترسی در بانک اطلاعات XML پیشنهاد شده است. در روش پیشنهادی سعی بر این است که کلیه مشکلات و نواقص روش تابع دستور و نگاشت بیتی مرتفع گردد.

واژه‌های کلیدی: بانک اطلاعات XML، کنترل دسترسی، امنیت، نگاشت بیتی.

  • مقدمه

اکثر نرم‌افزارهای کاربردی تجاری، سیستم‌های تبادل داده، و شرکت‌های مختلف داده‌های ساختیافته‌ی خود را در بانک‌های اطلاعات رابطه‌ای نگهداری می‌کنند. بانک‌های اطلاعات رابطه‌ای نمونه خوبی از بانک‌های اطلاعات ساختیافته هستند. بانک‌های اطلاعات نیمه ساختیافته مشابه بانک‌های سنتی شِمای ثابتی ندارند. داده‌های نیمه ساختیافته، خود تعریف می‌باشند و می‌توانند مدل ناهمگون‌تری نسبت به داده‌های ساختیافته داشته باشند. زبان نشانه‌گذاری توسعه‌پذیر XML تکنیک مناسبی برای مدل‌سازی چنین داده‌هایی است ، هر چند داده‌های ساختیافته و غیرساختیافته نیز می‌تواند در قالب XML ذخیره شود. نمایش داده‌های غیر ساختیافته به صورت XML قابلیت‌های بسیاری را در اختیار کاربران می‌گذارد. ویژگی غیر ساختیافته بودن اطلاعات و انعطاف‌پذیری XML و همچنین همه‌گیر شدن استفاده از آن باعث شده است که در بانک‌های اطلاعات نیز مورد توجه قرار گیرد. در این میان دسترسی به اطلاعات و امنیت اطلاعات مبادله شده بسیار مورد توجه می‌باشد.

جهت برقراری امنیت در بانک اطلاعات XML مدل‌ها، مکانیزم‌ها و روش‌هایی وجود دارد. در حال حاضر تنها مدل‌هایی که در برقراری امنیت در بانک اطلاعات XML استفاده می‌شود مدل‌های کنترل دسترسی می‌باشند. مطابقت مدل‌های کنترل دسترسی با مستندات XML و نیز چگونگی استفاده از این مدل‌ها در بانک اطلاعات XML در این پایان‌نامه تشریح شده است.

بیشتر کنترل‌های دسترسی مرسوم شامل لیست‌های کنترل دسترسی ، لیست‌های قابلیت  و ماتریس‌‌های کنترل دسترسی هستند. هنگامی که درباره امنیت یک سیستم صحبت می‌شود “کنترل دسترسی” جنبه‌های بسیاری را شامل می‌شود. کنترل دسترسی باید رسا و قابل فهم باشد و بتواند امنیت دسترسی به داده‌های مستقر در یک مکان را پشتیبانی نماید. همچنین در بسیاری از سیستم‌ها همچون سیستم‌های تراکنشی تجاری و بایگانی‌های پزشکی که شامل داده‌های حساس می‌باشند، کنترل دسترسی در پایین‌ترین سطح (عنصر و یا صفت) مورد نیاز است.

کارهای بسیار زیادی برای توصیف کنترل دسترسی روی مستندات XML از چند سال قبل انجام شده است. برخی از این کوشش‌ها عبارتند از: تعریف و اجرای خط‌مشئ‌های کنترل دسترسی بر روی منابع XML ، کنترل دسترسی به مستندات XML توسط تعیین سطوح مجوزها و خط‌مشئ‌های انتشار مجوزها ، توصیف کنترل دسترسی برای اسناد XML که ارتباط معنایی با هم دارند  و تعریف یک سیستم کنترل دسترسی در پایین‌ترین سطح برای مستندات XML . کنترل دسترسی در پایین‌ترین سطح شامل توصیف موضوع‌های مجوز (کاربران یا گروه‌های کاربری و یا کامپیوترها)، اشیاء مورد دسترسی (المان‌ها و محتوای المان‌ها) و تعیین مجوزهای دسترسی می‌باشد. تمرکز در این کار عموماً بر روی توصیف یک زبان برای تعیین محدودیت‌های کنترل دسترسی به مستندات XML و همچنین توصیف انواع مختلف خصوصیات و خط‌مشئ‌های مرتبط با آن می‌باشد.

در این پایان‌نامه روشی جدید مبتنی بر نگاشت بیتی  و تابع دستور  جهت کنترل دسترسی در بانک اطلاعات XML پیشنهاد شده است. در روش پیشنهادی کنترل دسترسی را در پایین‌ترین سطح ایجاد می‌کنیم. همچنین در روش پیشنهادی سعی شده است که کنترل دسترسی بامعنی ایجاد گردد. کنترل دسترسی با معنی را با استفاده از الگوریتمی که نقش‌ها را به نگاشت بیتی تبدیل می‌کند مهیا می‌کنیم. در این روش تلاش شده است که مشکلات و نواقص روش تابع دستور و نگاشت بیتی مرتفع گردد.

در فصل اول این پایان‌نامه پس از معرفی اجمالی بانک اطلاعات XML ، به امنیت در بانک اطلاعات XML می‌پردازیم. در فصل دوم مدل‌های کنترل دسترسی که برای بانک اطلاعات XML معرفی شده‌اند را بررسی می‌کنیم. در فصل سوم روش پیشنهادی ارائه می‌گردد. در فصل چهارم به پیاده‌سازی و ارزیابی روش پیشنهادی می‌پردازیم، و مقایسه‌ای بین مدل‌های مختلف کنترل دسترسی و روش پیشنهادی جهت استفاده در بانک‌های اطلاعات XML انجام خواهد گرفت. در فصل پایانی به نتیجه‌گیری و کارهای آتی می‌پردازیم.

  • آشنایی با XML

زبان XML در سال 1997 توسط کنسرسیوم وب برای رفع محدودیت‌های موجود در HTML و اضافه کردن قابلیت‌های جدید بوجود آمد . تفاوت اصلی XML با HTML در این است که XML سعی دارد داده‌ها را طوری نشانه‌گذاری کند که معنای آنها حفظ شود و در حالیکه HTML داده‌ها را طوری نشانه‌گذاری می‌کند که قابل نمایش برای مرورگرها باشد. در واقع XML یک استاندارد باز می‌باشد و تاکید آن بر روی معنای داده‌هاست در حالیکه تأکید HTML بر نمایش داده می‌باشد. XML. یک استاندارد پایه است که وابستگی به رسانه‌ها، سیستم عامل‌ها و دیگر سیستم‌ها را ندارد. به منظور حفظ معنای داده‌ها، XML ابر داده که توصیف کننده داده می‌باشد را نیز همراه آنها ذخیره می‌کند.

XML زیر مجموعه ساده شده‌ای از زبان SGML می‌باشد. زبان SGML یک زبان عمومی و پیچیده برای نشانه‌گذاری داده‌هاست که در دهه 80 بوجود آمد و پدر زبان‌های نشانه‌گذاری محسوب می‌شود. قابلیت‌های زیاد این زبان آن را بیش از اندازه پیچیده کرده است، بطوری که کنسرسیوم وب آن را بعنوان جانشین HTML مناسب ندانسته و تصمیم گرفت زیر مجموعه ساده شده‌ای از آن را با نام XML جانشین HTML کند. زبان XML در واقع یک ابر زبان نامیده می‌شود. چرا که کاربر بسته به نیازهایی که دارد می‌تواند با استفاده از آن زبان نشانه‌گذاری جدیدی برای داده‌هایش ایجاد کند.

XML همچنین قادر است ساختار داده‌های ذخیره شده را نیز به‌همراه معنای آنها حفظ کند. این زبان دارای هیچ برچسب از پیش تعریف شده‌‌ای نیست و تمامی برچسب‌ها برحسب نیاز توسط کاربر تعریف می‌شوند. قابلیت‌های XML و اجزاء همراه آن، این زبان را به زبان قابل حمل و استاندارد برای کاربردهای مختلف تبدیل کرده است.

فایل‌های XML دارای قابلیت متنی هستند به‌طوری که می‌توان آنها را در ویرایشگرهای متنی ویرایش کرد. یک فایل در XML از دو قسمت متن و علائم نشانه‌گذاری تشکیل شده است که در قسمت متن داده‌های اصلی ذخیره می‌شود و در قسمت علائم نشانه‌گذاری، ابرداده‌ توصیف کننده متن قرار می‌گیرد. XML از یک سو با ذخیره فایل‌هایش در قالب متنی و استفاده از علائم نشانه‌گذاری‏ فهم معنای داده‌های ذخیره شده را برای انسان ممکن می‌سازد و از سوی دیگر با در اختیار قرار دادن این فایل‌ها در یک قالب ساختیافته برای برنامه‌ها، پردازش آن را برای کامپیوتر ساده می‌کند.

ادامه مطلب...
پایان نامه ارائه یک مدل مبتنی بر خصیصه جهت تحلیل احساس موجود در نوشتجات

پایان نامه کارشناسی ارشد در رشته مهندسی کامپیوتر (نرم افزار)

عنوان: ارائه یک مدل مبتنی بر خصیصه جهت تحلیل احساس موجود در نوشتجات

تعداد صفحات : 77

برخی نویسندگان داده کاوی را به عنوان ابزاری برای جستجو کردن اطلاعات سودمند در حجم زیادی از داده ها تعریف می کنند. برای انجام فرایند داده کاوی با زمینه های گوناگون تحقیقی مواجه می‌شویم، مانند پایگاه داده، یادگیری ماشین و آمار. پایگاه داده‌ها برای تحلیل کردن حجم زیادی از داده‌ها ضروری هستند. یادگیری ماشین، یک ناحیه هوش مصنوعی است که با ایجاد تکنیک‌هایی امکان یادگیری به وسیله تحلیل مجموعه‌های داده‌ای را به کامپیوترها می‌دهند. تمرکز این روش‌ها روی داده سمبولیک است و با آنالیز داده‌های تجربی سر و کار دارد. پایه آن تئوری آماری است. در این تئوری عدم قطعیت و شانس به وسیله تئوری احتمال مدل می‌شوند. امروزه بسیاری از روش‌های آماری در زمینه داده کاوی استفاده می‌شوند. می‌توان گفت که متن کاوی از تکنیک‌های بازیابی اطلاعات، استخراج اطلاعات همچنین پردازش کردن زبان طبیعی استفاده می‌کند و آن‌ها را به الگوریتم‌ها و متدهای داده کاوی، یادگیری ماشین و آماری مرتبط می‌کند. با توجه به ناحیه‌های تحقیق گوناگون، بر هر یک از آن‌ها می‌توان تعاریف مختلفی از متن کاوی در نظر گرفت در ادامه برخی از این تعاریف بیان می‌شوند:

متن کاوی = استخراج اطلاعات: در این تعریف متن کاوی متناظر با استخراج اطلاعات در نظر گرفته می‌شود (استخراج واقعیت‌ها از متن).

متن کاوی = کشف داده متنی: متن کاوی را می‌توان به عنوان متدها و الگوریتم‌هایی از فیلدهای یادگیری ماشین و آماری برای متن‌ها با هدف پیدا کردن الگوهای مفید در نظر گرفت. برای این هدف پیش پردازش کردن متون ضروری است. در بسیاری از روش‌ها، متدهای استخراج اطلاعات، پردازش کردن زبان طبیعی یا برخی پیش پردازش‌های ساده برای استخراج داده از متون استفاده می‌شود، سپس می‌توان الگوریتم‌های داده کاوی را بر روی داده‌های استخراج شده اعمال کرد.

متن کاوی = فرایند استخراج دانش: که در بخش قبلی به طور کامل توضیح داده شده است و در اینجا دیگر بیان نمی‌شود. در این تحقیق ما بیشتر متن کاوی را به عنوان کشف داده متنی در نظر می‌گیریم و بیشتر بر روی روش‌های استخراج الگوهای مفید از متن برای دسته‌بندی مجموعه‌ های متنی یا استخراج اطلاعات مفید، تمرکز می‌کنیم.

در دنیای کنونی مشکل کمبود اطلاعات نیست، بلکه مشکل کمبود دانشی است که از این اطلاعات می توان بدست آورد. میلیونها صفحه ی وب، میلیونها کلمه در کتابخانه‌های دیجیتال و هزاران صفحه اطلاعات در هر شرکت، تنها چند دست از این منابع اطلاعاتی هستند. اما نمی‌توان به طور مشخص منبعی از دانش را در این بین معرفی کرد. دانش خلاصه‌ی اطلاعات است و نیز نتیجه گیری و حاصل فکر و تحلیل بر روی اطلاعات.

داده کاوی، یک روش بسیار کارا برای کشف اطلاعات از داده‌های ساختیافته‌ای که در جداول نگهداری می‌شوند، است. داده کاوی، الگوها را از تراکنش‌ها، استخراج می‌کند، داده را گروه‌بندی می‌کند و نیز آنرا دسته‌بندی می‌کند. بوسیله‌ی داده کاوی می‌توانیم به روابط میان اقلام داده‌ای که پایگاه داده را پر کرده‌اند، پی ببریم. در عین حال ما با داده کاوی مشکلی داریم و آن عدم وجود عامیت در کاربرد آن است. بیشتر دانش ما اگر به صورت غیر دیجیتال نباشند، کاملاً غیر ساختیافته اند. کتابخانه‌های دیجیتال، اخبار، کتابهای الکترونیکی، بسیاری از مدارک مالی، مقالات علمی و تقریباً هر چیزی که شما می‌توانید در داخل وب بیابید، ساختیافته نیستند. در نتیجه ما نمی‌توانیم آموزه‌های داده کاوی را در مورد آنها به طور مستقیم استفاده کنیم. با این حال، سه روش اساسی در مواجهه با این حجم وسیع از اطلاعات غیر ساختیافته وجود دارد که عبارتند از: بازیابی اطلاعات، استخراج اطلاعات و پردازش زبان طبیعی.

بازیابی اطلاعات: اصولاً مرتبط است با بازیابی مستندات و مدارک. کار معمول دربازیابی اطلاعات این است که با توجه به نیاز مطرح شده از سوی کاربر، مرتبط ترین متون و مستندات و یا در واقع بقچه‌ی کلمه را ازمیان دیگر مستندات یک مجموعه بیرون بکشد. این یافتن دانش نیست بلکه تنها آن بقچه‌ای از کلمات را که به نظرش مرتبط‌تر به نیاز اطلاعاتی جستجوگر است را به او تحویل می‌دهد. این روش به واقع دانش و حتی اطلاعاتی را برایمان به ارمغان نمی‌آورد.

پردازش زبان طبیعی: هدف کلی پردازش زبان طبیعی رسیدن به یک درک بهتر از زبان طبیعی توسط کامپیوترهاست. تکنیک‌های مستحکم و ساده‌ای برای پردازش کردن سریع متن به کار می‌روند. همچنین از تکنیک‌های آنالیز زبان شناسی نیز برای پردازش کردن متن استفاده می‌شود.

استخراج اطلاعات: هدف روش‌های استخراج اطلاعات، استخراج اطلاعات خاص از سندهای متنی است. استخراج اطلاعات می‌تواند به عنوان یک فاز پیش پردازش در متن‌کاوی بکار برود. استخراج اطلاعات عبارتند از نگاشت کردن متن‌های زبان طبیعی (مثلا گزارش‌ها، مقالات journal، روزنامه‌ها، ایمیل‌ها، صفحات وب، هر پایگاه داده متنی و…..) به یک نمایش ساختیافته و از پیش تعریف شده یا قالب‌هایی که وقتی پر می‌شوند، منتخبی از اطلاعات کلیدی از متن اصلی را نشان می‌دهند. یکبار اطلاعات استخراج شده و سپس اطلاعات می‌توانند در پایگاه داده برای استفاده‌های آینده، ذخیره شوند.

2-1- کاربردهای متن کاوی

در این قسمت تعدادی از کاربردهای متن‌کاوری را بیان خواهیم کرد. امروزه با وجود حجم زیادی از اطلاعات متنی، متن‌کاوی از جمله روش های تحقیقی-تجاری می‌باشد که از اهمیت ویژه‌ای برخوردار است. همه شرکت‌های تجاری، تولید کنندگان کالاها، ارائه کنندگان خدمات و سیاست‌مداران قادرند با بهره‌گیری از فرایند متن‌کاوی دانش مفیدی را به عنوان بازخورد از کالا، خدمات و عملکرد خود دریافت کنند. از جمله کاربردهای متن کاوی می‌توان به موارد زیر اشاره نمود:    

1.شناساییspam: آنالیز کردن عنوان و محتوای یک ایمیل دریافتی، برای تشخیص اینکه آیا ایمیل می‌تواند spam باشد یاخیر.

2 .نظارت :یعنی نظارت کردن رفتار شخص یا گروهی از انسان‌ها به صورت پنهان. پروژه‌ای به نام ENCODA تلفن، اینترنت و دیگر وسایل ارتباطی را برای شناسایی تروریسم نظارت می‌کند.

3. شناسایی نامهای مستعار: نام‌های مستعار در مراقبت‌های پزشکی برای شناسایی تقلب‌ها آنالیز می‌شوند. برای مثال یک صورت حساب ممکن هست با نام John Smith، J. Smith و Smith, John ارائه شود. از این طریق یا با استفاده از روش‌های دیگری مطالبه کنندگان امکان سوءاستفاده را خواهند یافت و مطالبات حق بیمه زیادی تحت نام‌های مستعار مختلف دریافت می‌کنند. استفاده از متن‌کاوی برای تشخیص این نام‌های مستعار می‌تواند در یافتن تقلب به شرکت‌های بیمه کمک فراوانی کند.

4.خلاصه سازی: منظور از خلاصه سازی، روند استخراج و ارائه مجموعه‌ای مفاهیم پایه‌ای از متن، تنها در چند خط است. این کار می‌تواند بررسی محتویات مستندات را برای کاربران ساده‌تر کند و آنها را در مسیر رسیدن به آنچه نیاز دارند، سرعت بخشد.

5. روابط میان مفاهیم: از جمله واقعیتهایی که می توان از یک مجموعه متون دریافت، ارتباط و وابستگی برخی مفاهیم با مفاهیم دیگراست. این واقعیات به طور مثال می‌تواند بگوید که پدیدار شدن بعضی کلمات ممکن است که وابسته باشد به ظاهر شدن بعضی دیگر از کلمات. منظور این است که هرگاه مجموعه ی اول کلمات را ببینیم، می‌توانیم انتظار داشته باشیم که مجموعه‌ی دوم لغات را نیز در ادامه مشاهده خواهیم کرد. این مفهوم نیز از داده کاوی در دیتابیس به امانت گرفته شده است.

6. یافتن وتحلیل رفتارها: برای شرح این کاربرد فرض کنید که مدیر یک کمپانی تجاری هستید. مشخصاً شما باید همواره بر فعالیتهای رقیبانتان نظارت داشته باشید. این می‌تواند هر نوع اطلاعاتی باشد که شما از اخبار، معاملات بورس و یا از مستندات تولید شده توسط همان کمپانی رقیب گرفته‌اید. امروزه اطلاعات به طور فزآینده‌ای در حال افزایش است، مدیریت تمامی این منابع داده‌ای قطعاً تنها به کمک چشمان ممکن نیست. متن‌کاوی این امکان را می‌دهد که به طور اتوماتیک رفتارها و تغییرات جدید را بیابید. در واقع آنچه اصولاً باید از متن‌کاوی انتظار برود این است که به شما بگوید چه اخباری در میان گستره‌ای از اخبار به آنچه می خواهید مرتبط است و در این میان کدام خبر جدیداست، چه پیشرفتهایی در زمینه‌ی کاری شما صورت می گیرد و علایق و رفتارهای فعلی چگونه است و با چه روندی تغییر می‌کند. با استفاده از این اطلاعات، مدیران قادرند از اطلاعات کشف شده برای بررسی وضعیت رقیب سود جویند.

7. تحلیل احساس : در این کاربرد هدف از متن کاوی تشخیص احساس نویسنده متن است. درجه رضایت یا خوشحالی و ناراحتی نویسنده تشخیص داده می‌شود. این رساله به بررسی متن کاوی به منظور تحلیل احساس موجود در متون خواهد پرداخت، لذا در ادامه با جزئیات بیشتری تحلیل احساس در متون را بررسی خواهیم کرد.

همه اطلاعات متنی را می‌توان به دو دسته:حقایق و عقاید دسته بندی کرد. حقایق عبارات علمی‌ و عملی درباره موجودیت‌ها، رویدادها و ویژگی‌های آنها هستند که بصورت عینی و واقعی در دنیای بیرون وجود دارند یا به وقوع پیوسته‌اند. عقاید عبارات غیر عینی و ذهنی هستند که نظرات، ارزیابی‌ها یا احساسات افراد را درباره یک موجودیت، رویداد و ویژگی‌های آنها بیان می‌کنند .

شکل 1-1 مثالی را برای هر کدام بیان میکند. در این رساله تنها به یک جنبه از این مفهوم یعنی احساسات خواهیم پرداخت.

قبل از سال 2000 به دلیل کمبود منابع داده‌ای و کمبود متون حاوی نظرات و عقاید در تارنمای گسترده جهانی تحقیقات اندکی در این زمینه به انجام رسیده است. امروزه با گسترش اینترنت و همه‌گیر شدن شبکه‌های اجتماعی، کاربران می‌توانند نظرات خود درباره محصولات یا خدمات را در سایت‌های تجاری، شبکه‌های اجتماعی، وبلاگ‌ها بیان کنند؛ صفحات وب متون زیادی را در بر دارند که مشتمل بر نظرات، عقاید، ارزیابی کاربران پیرامون یک کالا یا خدمات خاص هستند. اطلاعاتی که از این نوع داده‌ها قابل دست‌یابی است، برای شرکت‌های سازنده و همچنین سازمان‌های ارائه کننده خدمات بسیار مفید و گاهی ضروری خواهند ‌بود. همچنین برای کاربرانی که قصد انتخاب خدمات یا یک نوع کالا را دارند راهنمایی مفیدی را ارائه می‌دهند. شخصی را در نظر بگیرید که قصد دارد موبایل یا دوربین دیجیتالی بخرد، برای آگاهی از کیفیت دوربین و مطلوبیت خدمات شرکت سازنده بدون شک به پرسش و جمع‌آوری اطلاعات از اطرافیان روی خواهد آورد، ولی امروزه با رشد اینترنت می‌توان بصورت آنلاین نظرات و تجربیات صدها نفر را درباره یک کالای خاص مطالعه کرد و برای تصمیم گیری از آنها مدد گرفت.

امروزه تعدد و گوناگونی منابع اینترنتی حاوی نظرات و احساسات کاربران به حدی زیاد شده است که یافتن و ارزیابی آنها کار بسیار پیچده‌ای است. در بسیاری موارد نظرات و عقاید کاربر در یک پست طولانی پنهان شده است. برای استخراج نظرات و عقاید درباره یک موجودیت باید در ابتدا منابع اینترنتی مرتبط با آن را یافت سپس متن مورد نظر خوانده شود، جملات بیان کننده نظرات و عقاید کاربر از متن استخراج شوند، خلاصه سازی شوند و به فرم قابل استفاده تبدیل شوند. از جمله مشکلاتی که در این زمینه وجود دارد حجم زیاد داده می‌باشد. در صفحه توییتر شخصی جاستین بیبر روزانه 300000 نظر ثبت می‌شود. این حجم از داده‌ها میتوانند اطلاعات مفیدی را برای شرکت‌ها و همچنین مشتری‌ها به همراه داشته باشند؛ ولی پردازش آنها بصورت دستی و انسانی غیر ممکن می‌باشد، لذا طراحی یک روش اتوماتیک برای تحلیل متن و استخراج نظرات و عقاید موجود در متن ضروری است. در همین راستا تلاش‌های فراوانی صورت گرفته است، مثلا در کشور آمریکا 20 تا 30 شرکت به ارائه خدمات تخصصی تحلیل احساس می‌پردازند .

در این رساله روشی برای تحلیل احساس ارائه می‌شود. روش پیشنهادی سعی در ارائه مجموعه مناسبی از خصیصه‌ها را دارد به نحوی که بتوان به دقت بهتری در ارزیابی اتوماتیک متون دست یافت، همچنین تعداد خصیصه‌ها در حد متناسبی حفظ شود. برای انتخاب خصیصه‌ها از الگوریتم‌های ساده و با حداقل پیچیدگی زمانی بهره می‌بریم و نیاز به استفاده از الگوریتم انتخاب خصیصه با پیچیدگی زمانی بالا مرتفع شده است.

 

ادامه مطلب...
دستیابی به کیفیت سرویس در شبکه های حسگر بیسیم با استفاده از آتوماتاهای یادگیر سلولی

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته مهندسی کامپیوتر

گرایش : نرم افزار

عنوان : دستیابی به کیفیت سرویس در شبکه های حسگر بیسیم با استفاده از آتوماتاهای یادگیر سلولی

تعداد صفحات : 220

چکیده

کیفیت سرویس در شبکه های حسگر بی سیم نسبت به شبکه های سنتی بسیار متفاوت است. بعضی از پارامترهایی که در ارزیابی کیفیت سرویس در این شبکه ها مورد استفاده قرار می گیرند عبارتند از: پوشش شبکه, تعداد بهینه نودهای فعال در شبکه, طول عمر شبکه و میزان مصرف انرژی. در این پایان نامه سه مسئله اساسی شبکه ها ی حسگر بی سیم مطرح گردیده و با هدف بهبود پارامترهای کیفیت سرویس، برای این مسائل، راه حلهایی کارا با استفاده از روش هوشمند آتوماتاهای یادگیرسلولی ارائه شده است. ابتدا مسئله پوشش محیط در شبکه های حسگر را با استفاده از غیر فعال نمودن نودهای غیر ضروری و فعال نگه داشتن بهینه نودها حل می گردد، تا در مصرف انرژی صرفه جویی به عمل آمده و عمر شبکه افزایش یابد. سپس به مسئله خوشه بندی در شبکه حسگر پرداخته شده و با استفاده از آتوماتاهای یادگیرسلولی, شبکه های حسگر به گونه ای خوشه بندی می شوند که انرژی به صورت یکنواخت در شبکه بمصرف رسیده وعمر شبکه  افزایش یابد. پس از آن با استفاده از آتوماتاهای یادگیر یک روش تجمیع داده های محیط حسگری پیشنهاد می گردد که در مصرف انرژی شبکه صرفه جویی به عمل آورده و عمر شبکه را افزایش می دهد. همه روشهای ارائه شده با استفاده از نرم افزار J-Sim شبیه سازی گردیده اند. نتایج شبیه سازی ها نشان دهنده عملکرد بهتر روشهای پیشنهادی نسبت به روشهای مشابه می باشد.

 

ادامه مطلب...
پایان نامه کاهش انرژی مصرفی در محیط ابرواره با استفاده از مهاجرت

دانلود متن کامل پایان نامه مقطع کارشناسی ارشد رشته  مهندسی کامپیوتر

گرایش : نرم افزار

عنوان : کاهش انرژی مصرفی در محیط ابرواره با استفاده از مهاجرت

تعداد صفحات : 89

چکیده

کاهش مصرف انرژی از جمله مهمترین مسائل روز به ویژه در بخش صنعت است. در سالهای اخیر نیازهای روز افزون بشر به سیستم‌های کامپیوتری باعث ایجاد و گسترش هر چه بیشتر مراکز داده با تعداد زیاد رایانه شده است که در مجموع مصرف برق قابل توجهی دارند. بدیهی است که در چنین شرایطی تلاش‌های زیادی در راستای کاهش مصرف برق در این مراکز از سوی متخصصین صورت گرفته است و اکنون نیز تلاش در این زمینه از اهمیت خاصی برخوردار است. یکی از روش‌های کاهش مصرف برق در مراکز داده، مهاجرت ماشین مجازی است.

در این پایان نامه با استفاده از مهاجرت ماشین مجازی یک بسته‌ی نرم افزاری طراحی و پیاده سازی شده‌است که بر اساس بار کاری هر رایانه و انتقال بار بین سیستم‌ها در قالب مهاجرت ماشین مجازی شرایطی مناسب را برای کاهش مصرف برق به وجود می آورد و با بهره گیری از آن مصرف را به میزان چشمگیری کاهش می دهد

ادامه مطلب...
به کانال تلگرام سایت ما بپیوندید