نام پژوهشگر: هادی گرایلو
پریا مهارلویی حسین مروی
تشخیص اتوماتیک زبان در واقع مسأله تشخیص زبان برای یک نمونه گفتار صحبت شده توسط سخنگوی نامعـلوم است. تشخیص خودکار زبان می تواند به ارتباط بین مردم نواحی گوناگون کمک کند و کاربردهای مختلفی در توسعه گردشگری ، تجارت آزاد، تقویت امنیت ملی از طریق پیش پردازش و فیلتر نمودن مکالمات مشکوک ، خدمات اورژانس، ترجمه همزمان در همایش ها و مکالمات بین المللی دارد. در این پایان نامه با کمک کلاسه بندی ویژگی های مختلف، سیستم تشخیص خودکار زبان، طراحی و پیاده سازی شده است. برای این منظور، ویژگی های مناسب هر زبان را یافته و با دسته بندی آن برای زبان های مختلف، الگوریتم کلاس بندی و گسسته سازی چند بازه ای را آموزش داده و پس از دسته بندی آنها، قواعد تصمیم گیری برای هر زبان تعیین شده و از این دسته بندی برای تشخیص زبان های تست استفاده می کنیم. برای آزمایش روش پیشنهادی، از نمونه های صوتی 10 ثانیه ای و 45 ثانیه ای پایگاه اطلاعاتی ogi-ts استفاده گردیده است. در ogi-ts نمونه های صوتی از 11 زبان انگلیسی، فارسی، آلمانی، اسپانیایی، کره ای، ماندارین، ژاپنی، تامیل، ویتنامی، فرانسوی و هندی با زمان بندی های گوناگون موجود است. اما در سیستم های تشخیص زبان، بیشتر از 9 زبان اول استفاده شده است. به همین منظور ما نیز آزمایش ها را بر روی این 9 زبان انجام داده و با روش های پیشین مقایسه نمودیم. آزمایش ها بر روی ضرایب مختلف موجک ، mfcc، plp و lpc انجام شده اند. تا کنون روش های مختلفی برای شناسایی زبان گفتاری به صورت خودکار پیشنهاد شده است، که بیشتر آنها وابسته به اطلاعات واج آرایی بوده و استفاده از آنها دشوار می باشد. ما در این پژوهش روشی مستقل از واج آرایی ارائه دادیم که در عین سهولت، با درصد خوبی قادر به تشخیص زبان ها است. در این روش از تبدیل موجک و تبدیل کپسترال نمونه های صوتی استفاده گردیده که بدون نیاز به اطلاعات زبان شناسی، بر روی زبان های گوناگون قابل استفاده می باشند. مشاهده گردید که ضرایب کپسترال به درصد صحت بالاتری نسبت به ضریب موجک می رسند. همچنین برای هر دو ضریب کپسترال و موجک، نمونه های صوتی 45 ثانیه ای به دلیل مدت زمان بیشتر، درصد تشخیص بهتری دارند. روش های پیشین بیشتر به تشخیص دوبه دوی زبان ها می پرداختند، در حالیکه روش پیشنهادی قادر به تشخیص نوع زبان، از میان 9 زبان موجود در ogi-ts نیز می باشد.
جلال خداپرست قادی کلایی علی دستفان
در سال های اخیر، با زیاد شدن بار های غیر خطی در شبکه قدرت، بحث کیفیت توان هم برای مصرف کننده و هم برای تولید کننده از اهمیت خاصی برخوردار شد. یکی از مهم ترین پدیده های کیفیت توان، فلیکر است. هسته اصلی تحلیل وبررسی فلیکر، دنبال سازی پوش ولتاژ است. در این پایان نامه، چهار روش بر پایه تبدیل d-q برای دنبال سازی همه مولفه های فلیکری موجود در پوش ارائه شده است. روش های پیشنهادی قادر به دنبال سازی بیش از یک مولفه فلیکری در پوش ولتاژ می باشند. شناسایی منابع فلیکر یک بخش مهم در مسائل جبران سازی است. مساله وجود چندین منبع فلیکر به طور هم زمان با استفاده از شبکه عصبی تا کنون بررسی نشده است. در این پایان نامه سه روش مختلف برای شناسایی چندین منبع فلیکر در یک سیستم قدرت پیشنهاد داده شده است.
حبیبه قاهری علیرضا احمدی فرد
یکی از موضوعاتی که در سال های اخیر مورد توجه بسیاری از محققین قرار گرفته است، سیستم های واسط مغز و رایانه (bci) می باشد. bci سیستمی است که به کمک سیگنال های مغزی نظیر الکتروآنسفالوگرام (eeg، ارتباط بین شخص و وسایل جانبی مثل دست مصنوعی را برقرار نماید. در bci مبتنی بر تصور حرکتی از شخص خواسته می شود تا تصور کند که بخشی از بدن خود را حرکت می دهد. در نتیجه تصور حرکت رخدادهایی در مغز اتفاق می افتد. وظیفه سیستم bci این است که این رخدادها را از سیگنال های eeg استخراج نموده و براساس آنها نوع حرکت را تشخیص دهد. هدف از این پایان نامه کلاسه بندی داده های eeg ناشی از چهار نوع تصور حرکتی دست چپ، دست راست، دو پا و زبان در مغز می باشد. در این پایان نامه از مجموعه 2a از پایگاه داده مسابقه چهارم bci که در سال 2008 برگزار شده استفاده شده است. در این پایان نامه چهار روش برای کلاسه بندی داده های این مجموعه داده پیشنهاد شده است. یکی از موفق ترین روش ها در تشخیص تصور حرکتی روش csp می باشد. این روش به کمک ماتریس کواریانس داده ها در کلاس های مختلف فیلترهای فضایی استخراج می کند تا داده های ورودی را کلاسه بندی نماید. مشکل csp این است که ساختار زمانی سیگنال های eeg را در نظر نمی گیرد. از طرفی نویز یک نمونه زمانی می تواند تأثیر مخربی بر نتیجه این روش داشته باشد. روش بهبود یافته ltcsp ساختار زمانی داده ها را در نظر گرفته و تأثیر نویز در نتیجه آن کمتر از csp است. این روش اولین بار برای کلاسه بندی داده های دو کلاسه مطرح شده که در این پایان نامه توسط تکنیک ovr به مسئله چهار کلاسه تعمیم یافته است. همچنین ما در این پایان نامه روشی به نام seg-csp-var پیشنهاد داده ایم که در آن ابتدا سیگنال های eeg به قطعات زمانی شکسته شده و سپس بر روی هر قطعه زمانی روش csp اعمال می شود. این روش پیشنهادی بطور متوسط نتایج بهتری از روش csp دارد. نتایج این روش نشان می دهد که اهمیت کانال ها برای جداسازی کلاس ها در قطعات زمانی مختلف متفاوت است. در روش پیشنهادی دیگر با نام seg-csp-bp به جای ویژگی واریانس از توان در باندهای فرکانسی متفاوت به عنوان ویژگی استفاده می شود. در این روش از تکنیک گسسته سازی چند بازه ای به عنوان کلاسه بند و از تکنیک رتبه بندی ویژگی ها به منظور کاهش ابعاد بردار ویژگی استفاده شده است. عملکرد بهتر روش ovr-seg-csp-bp نسبت به روش ovr-csp، ovr-ltcsp، ovr-seg-csp-var و حتی برنده مسابقه 2008 در کلاسه بندی داده های eeg چهار کلاسه حاکی از آن است که استفاده از ویژگی های حوزه زمان و حوزه فرکانس در کنار هم می تواند منجر به نتایج مطلوبی شود. بنابراین در انتهای پایان نامه روشی پیشنهاد داده ایم که در آن از توزیع زمان-فرکانس کانال ها در روش csp استفاده می شود. در این روش تابع چگالی احتمال مولفه ها در حوزه زمان-فرکانس توسط مخلوط توابع گوسی بدست می آید. این روش نیز نتایج بهتری نسبت به روش csp داشته است.
محسن اکرمی ذکراباد امید رضا معروضی
امروزه کاربرد سیستم های شناسایی چهره به منظور تشخیص هویت، کنترل تردد و حفاظت اطلاعات افزایش چشمگیری داشته است. این سیستم ها معمولا نیازمند پایگاه بزرگی از تصاویر چهره هستند. محدودیت حافظه و افزایش سرعت بازیابی از جمله عواملی هستند که ما را به سوی فشرده سازی این تصاویر سوق می دهند. نکته مهمی که در فشرده سازی این تصاویر باید در نظر گرفته شود، حفظ کیفیت ویژگی های مهم چهره در حد مناسب، مخصوصا در نرخ بیت های پایین است. در این پایان نامه طی یک سیر تکاملی سه روش برای فشرده سازی تصاویر چهره مبتنی بر نواحی مطلوب در نرخ بیت های پایین پیشنهاد شده است. تبدیل موجک و کدگذاری wbtc پایه و اساس هر سه روش پیشنهادی را تشکیل می دهند. در روش های پیشنهادی با بازآرایی بلوک های ضرایب موجک بر حسب اهمیت، کارایی الگوریتم کدگذاری wbtc افزایش یافته است؛ چرا که در این حالت زمان و نرخ بیت کمتری صرف یافتن ضرایب مهم می گردد. در روش اول با محاسبه یک تصویر باقیمانده در حوزه موجک و کدگذاری نواحی مطلوب در این تصویر به کمک روش maxshift، کیفیت دیداری این نواحی در نرخ بیت های پایین بهبود یافته است. در روش دوم با استفاده از تبدیل rwt، امکان فشرده سازی مجزای نواحی مطلوب و غیر مطلوب در نرخ بیت دلخواه فراهم شده است. در روش سوم با استفاده تلفیقی از تبدیل rwt و تکنیک کدگذاری تصویر باقیمانده در روش اول، به کارایی بالاتری نسبت به دو روش قبل دست یافته ایم. نتایج شبیه سازی بیانگر کارایی بالاتر روش های پیشنهادی در مقایسه با jpeg2000، spiht و یک روش مبتنی بر ناحیه مطلوب است. این کارایی بالا در ناحیه چهره و مخصوصا در نرخ بیت های پایین تر خود را بهتر نشان می دهد، چرا که با کاهش نرخ بیت کارایی الگوریتم wbtc و تکنیک بازآرایی بلوک های ضرایب موجک افزایش می یابد.
رویا سلطانی هادی گرایلو
چکیده امروزه در سازمانهای دولتی/غیر دولتی بسیاری در اقصی نقاط دنیا، داده های ویدیویی بسیاری به صورت روزافزون در حال تولید، ذخیره، و ارسال است. نگهداری یا ذخیره ی چنین حجم انبوهی از دنباله های ویدیویی مستلزم استفاده از حافظه های با حجم بسیار زیاد است که چندان مقرون به صرفه نبوده و علاوه بر این حجم فیزیکی نسبتاً زیادی اشغال می شود که منجر به مشکل شدن جابجایی و دسترسی به داده های مذکور می شود. یک راه برای غلبه نسبی بر مشکل نگهداری یا ذخیره ی دنباله های ویدیویی استفاده از روشهای موثر فشرده سازی ویدیو می باشد. ایده ای که مدت زمان زیادی از ارائه ی آن نمی گذرد، فشرده سازی داده های ویدیویی مبتنی بر نواحی مطلوب (roi) است. این ایده در کاربردهایی مورد استفاده قرار می گیرد که در آنها، تمام نواحی یک تصویر یا فریم از اهمیت یکسانی برخوردار نمی باشند. در این گونه تصاویر، نواحی بااهمیت تر با میزان فشرده سازی کمتر (و در نتیجه با میزان کیفیت بیشتر) و نواحی کم اهمیت تر با میزان فشرده سازی بیشتر (و در نتیجه با میزان کیفیت کمتر) کدگذاری می گردند. ایده ی کدگذاری مبتنی بر نواحی مطلوب در تصاویری مانند تصاویر پزشکی، سیگنالهای حیاتی، تصاویر ورزشی، و تصاویر پرسنلی قابل استفاده است زیرا در این گونه تصاویر تمام نواحی تصویر از یک درجه ی اهمیت برخوردار نبوده و برخی نواحی بیشتر از بقیه مورد توجه می باشند. در این پایان نامه، روشی جهت فشرده سازی دنباله های ویدیویی ورزش فوتبال مبتنی بر نواحی مطلوب پیشنهاد شده است. در این راستا، سعی در شناسایی نواحی مطلوب و سپس کدگذاری مناسب هر ناحیه با توجه به میزان اهمیت آن داریم. در روش پیشنهادی از تبدیل موجک و کدگذاری ضرایب آن به کمک کدگذارهای spc (به ویژه کدگذارهای spiht و ebcot) استفاده شده است. مهمترین اجزا و یا تکنیکهای استفاده شده عبارتند از دسته بندی فریمها به دو نوع مستقل و وابسته و کدگذاری جداگانه ی هر کدام از آنها، استفاده از روش پیشنهادی جهت تعیین نوع هر فریم ورودی، استفاده از انطباق بلوکی در دو حوزه ی مکان و تبدیل، و نیز استفاده از بازچینی بلوکها جهت افزایش کارایی کدگذارهای spc، و بالاخره، تعریف و تعیین نواحی مطلوب در تصاویر ورزش فوتبال. کارایی فشرده سازی روش پیشنهادی با کارایی استانداردmpeg4 و روش غیراستاندارد اما امروزی flvبرطبق معیارهای psnr، بیت بر پیکسل (bpp)، و بیت بر ثانیه (bps) مقایسه شده است. نتایج انجام شبیه سازیها از برتری گاهاً قابل توجه روش پیشنهادی نسبت به روشهای مذکور حکایت دارد.
سعیده یوسف زاده مرتضی زاهدی
تشخیص زنده بودن اثر انگشت، مبحثی جدید در حوزه امنیت سیستم های تشخیص هویت بر اساس اثر انگشت است. یکی از روش های تشخیص زنده بودن اثر انگشت، روش power spectrum است، که بر اساس آنـالـیـزهـای فـرکـانسی است. استفاده از این روش نتایج امیدوارکننده ای را در تشخیص حالات زنده و جعلی اثر انگشت داشته است. در این پایان نامه از این روش برای مقایسه اثر انگشت های مصنوعی sfinge با اثر انگشت های واقعی استفاده شده است. نتایج آزمایش ها نشان داد که، اثر انگشت های واقعی و مصنوعی از لحاظ طیف فرکانسی متفاوتند. در ادامه این پایان نامه به موضوع ارتباط اثر انگشت با بیماری ها، می پردازیم. تصاویر اثر انگشت مربوط به دو بیماری سیستماتیک دیابت و اعتیاد را مورد بررسی قرار داده ایم. ابتدا روش power spectrum را در تحلیل داده ها استفاده کرده ایم. نتایج بدست آمده نشان داد، که بایستی به دنبال روش هایی دیگر برای استخراج ویژگی از تصاویر اثر انگشت باشیم. تبدیل ویولت و ویژگی های استخراجی از ضرایب ویولت، در آنالیز تصاویر، قویتر از تبدیل فوریه عمل می کنند. ترکیب ویژگی های بافتی که از ضرایب ویولت استخراج می شوند با ویژگی های آماری ویولت، بردار ویژگی قویتری می سازد. برای تحلیل تصاویر اثر انگشت بیماران، دو روش مبتنی بر ویژگی های آماری ویولت و ویژگی های بافت تصویر، استفاده شده است. نتایج این روش ها در تشخیص ارتباط بیماری ها با اثر انگشت امیدوارکننده است.
امین قنبرزاده هادی گرایلو
با توجه به محدود بودن پهنای باند در ارتباطات مخابراتی و اینترنت، و محدودیت حافظه های در دسترس، و از طرفی نیاز روز افزون به داده های صوتی و تصویری با کیفیت بالا، و هم چنین به منظور استفاده ی بهینه از امکانات موجود، نیازمندی ما به روش های فشرده سازی سیگنال، اجتناب ناپذیر است. وجلت ها یکی از ابزارهای موفق برای فشرده سازی و حذف نویز در تصاویر هستند. وجلت ها مشابه موجک ها یک تحلیل چندمقیاسی از سیگنال را فراهم می کنند. در این پایان نامه، تعمیم روش فشرده سازی مبتنی بر وجلت های توسعه یافته، روی سیگنال های صوتی، مورد مطالعه قرار گرفته است. برای این کار ابتدا مروری بر روش فشرده سازی وجلت های اولیه و وجلت های توسعه یافته، انجام داده و مشکلات تعمیم این روش را بر روی سیگنال های صوتی بررسی کرده، و راه کارهای ممکن را به کار گرفته ایم. توابع پایه ی مربوط به وجلت، توابع چندجمله ای از مراتب مختلف انتخاب شده اند. با توجه به این که ضرایب به دست آمده، مربوط به حوزه ی زمان می باشد، و هم چنین به دلیل همبستگی موجود بین این ضرایب، سه روش مختلف کوانتیزاسیون را آزمایش کرده ایم. یک روش فشرده سازی مبتنی بر نواحی مطلوب نیز در ترکیب با روش پیشنهادی، ارائه شده است که باعث می شود در سیگنال های گفتار، قسمت های صحبت و سکوت، با نرخ بیت و کیفیت متفاوتی فشرده شوند. هم چنین عملکرد سیستم در محیط های نویزی نیز بررسی شده است. از قابلیت های روش پیشنهادی این است که نرخ فشرده سازی و هم چنین کیفیت سیگنال بازسازی شده، قابل تنظیم می باشد. برای ارزیابی، روش پیشنهادی با دو روش مبتنی بر تبدیل dwt و dct مورد مقایسه قرار گرفته است. نتایج از لحاظ معیارهای کمّی snr و mos مقایسه شده اند. نتایج نشان می دهد که از دید معیار snr روش مبتنی بر وجلت در مورد سیگنال های صحبت به طور متوسط 40/19% نسبت به روش dwt و 90/11% نسبت به روش dct، بهتر بوده و در سیگنال های صوتی نیز به طور متوسط 97/19% نسبت به روش dwt عملکرد بهتری داشته است. نتایج حاکی از این است که روش مبتنی بر وجلت می تواند روش موثری برای فشرده سازی انواع مختلف سیگنال های صوتی و صحبت باشد.
مصطفی صفایی امیدرضا معروضی
امروزه، فایلهای ویدئویی دیجیتال که اطلاعات صوتی و تصویری را ترکیب می کنند، در همه جا قابل دسترس می باشند. پیشرفت سریع وسایل ویدئویی مانند دوربین های دیجیتال، زمینه های استفاده از ویدئو که شامل کنفرانسهای اینترنتی و تحصیلات الکترونیکی می شود را افزایش داده است. این شرایط، پایگاه داده ی عظیمی از فایلهای ویدئویی را ایجاد کرده است. لذا نیازمند سازماندهی این پایگاه داده و بازیابی اطلاعات مفید آن می باشیم. نیاز به سازماندهی پایگاه داده های ویدئویی سبب شده است که تشخیص تغییر نما به یکی از مهمترین موضوعات مورد مطالعه در زمینه پردازش ویدئو تبدیل گردد. لذا ارائه روشی برای تشخیص تغییر نما ضروری به نظر می رسد. در این پایان نامه، هدف طراحی وپیاده سازی روشی جهت تشخیص تغییر نما و نوع آن (تدریجی یا آنی) می باشد بطوری که این روش قابلیت پیاده سازی بلادرنگ در بستر پردازشگرهای سیگنال را داشته باشد. پیاده سازی هم بصورت نرم افزاری (شبیه سازی با نرم افزار کد کمپوزر) و هم بصورت سخت افزاری (به کمک ماژولهای ارزیابی موجود)انجام می شود. در این پایان نامه، روشی کارا برای آشکارسازی و تعیین برخط نوع تغییر نما که مناسب برای پیاده سازی سخت افزاری در بستر پردازشگرهای سیگنال باشد، پیشنهاد شده است که حجم حافظه ی مصرفی آن کم و سرعت آن بالاست. روش پیشنهادی روی برد آموزشی مبتنی بر پردازشگر tms320c5505 پیاده سازی گردیده است. در حوزه شبیه سازی، برای ارزیابی کارایی عملکرد روش پیشنهادی از دو معیار دقت و یادآوری و برای ارزیابی کارایی سرعت از معیار متوسط زمان اجرا برای هر فریم استفاده شده است. بررسی ها روی چهار دسته از دنباله های ویدیویی شامل دسته های ورزشی، اخبار، سینمایی و کارتونی انجام شده است. در حوزه پیاده سازی تعداد سیکل های ماشین صرف شده در پردازشگر به ازاء هر فریم اعلام شده است. مقدار متوسط پارامترهای دقت و یادآوری برابر با به ترتیب 95.2 درصد و 94.5 درصد و مقدار متوسط زمان اجرا برای هر فریم در سیستم مورد استفاده برابر با 0.095 ثانیه به دست آمده است. همچنین در این پایان نامه، اقدام به پیاده سازی روش پیشنهادی در بستر tms320dm6446 شد، اما به دلیل کمبود وقت، عدم وجود منابع مفید و افراد مجرب، نتیجه مورد نظر حاصل نشد اما تحقیقات صورت گرفته در این زمینه ارائه شده است. لازم به ذکر است اکثر پایگاه داده ها به صورت دستی، تهیه و جمع آوری شده اند. از دستگاه tv capture جهت تولید پایگاه داده دنباله های ویدیوئی با مشخصات معین (شامل نرخ قاب بر ثانیه و نوع محتوا) استفاده شده است.
آیدین خداشناس پرچینکی هادی گرایلو
امروزه، بیشتر تولیدات تاریخی، هنری و علمی روی کاغذ منتشر می شوند. بسیاری از کتابخانه های بزرگ دنیا در حال تبدیل منابع خود به شکل دیجیتال می باشند زیرا ذخیره اطلاعات مربوط به اسناد مختلف به شکل دیجیتالی، تا حد زیادی مقرون به صرفه تر از نگهداری آنها در قفسه های کتابخانه است. بنا به دلایل اقتصادی، برای ذخیره چنین حجم عظیمی از اطلاعات به فشرده سازی آنها نیاز داریم. هدف در این پایان نامه ارائه روشی مبتنی بر مدل محتوای ترکیبی پایه جهت فشرده سازی تصاویر متنی می باشد. تصویر سند در این روش معمولاً به سه لایه پیش زمینه، پس زمینه و پوشش تجزیه می شود. در راستای اجرای این پایان نامه اقدام به جمع آوری 1449 تصویر متنی شد. این تصاویر طیف وسیعی از انواع رسم الخط و کیفیت و ترکیب متن و گرافیک را شامل می شود. برای ایجاد لایه پوشش مورد نیاز در مدل محتوای ترکیبی از یک روش جدا سازی متن از تصویر استفاده شد که جهت تصاویر متنی سطح خاکستری مورد استفاده قرار می گیرد. این روش مبتنی بر ایده ی ترکیب طبقه بندها (با استفاده از شبکه عصبی) و استفاده از تحلیل چندمقیاسی (با استفاده از فیلتربانک) است. دو روش نیز جهت فشرده سازی تصاویر استخراج شده از روش فوق ارائه شد. روش اول مبتنی بر استفاده از تبدیل klt به منظور فشرده سازی تصاویر متنی ارائه گردید. دومین روش پیش پردازش تصاویر متنی قبل از اعمال فرآیند فشرده سازی jpeg می باشد. در روش پیشنهادی اول جهت فشرده سازی با استفاده از تبدیلklt علاوه بر بیشتر بودن میزان فشرده سازی در روش پیشنهادی نسبت به دو روش jpeg وjpeg2000کیفیت تصویر متنی بازسازی شده نیز تا حد قابل توجهی بیشتر است. همچنین ملاحظه می شود که روش پیشنهادی تمایل به کاهش کانتراست تصویر متنی دارد.
ایمان خسرویان چم پیری حسین مروی
پنهان سازی به معنای مخفی کردن نامحسوس اطلاعات سیگنال پیام (یا سیگنال الگو) در داخل سیگنال میزبان است به نحوی که سیگنال الگوگذاری شده ی حاصل از سیگنال اصلی یا میزبان قابل تمیز نباشد. این کار می تواند به روش های مختلفی انجام شود. سیگنال میزبان و سیگنال پیام هر کدام می توانند یکی از انواع محصولات چند رسانه ای از قبیل تصویر، صوت و متن باشند. تبدیل فوریه – بسل تبدیلی است که سیگنال را به صورت مجموعی از توابع بسل نمایش می دهد. از آنجا که توابع بسل با سیگنال گفتار از نظر ساختاری تشابه دارند، این تبدیل می تواند در زمینه پردازش سیگنال های گفتاری مفید واقع شود. روش های پیشنهاد شده در این پایان نامه، استفاده از تبدیل فوریه – بسل، جهت پنهان سازی اطلاعات در سه روش جایگزینی بیت کم ارزش، طیف گسترده و مدولاسیون اندیس کوانتیزاسیون می باشد. همچنین جهت مقایسه ی کارآیی این روش ها، در کنار آن از سه تبدیل فوریه، کسینوسی و موجک نیز استفاده می گردد. برای مقایسه بین این چهار تبدیل از معیارهای نرخ خطای بیت، هم بستگی بین نهان نگاره اصلی و استخراج شده و شفافیت استفاده می شود. برای دو معیار اول روابطی معرفی شده و برای معیار شفافیت از روش pesq کمک گرفته خواهد شد. جهت تست پایداری در برابر حملات، سیگنال در برابر دو حمله فشرده سازی و افزودن نویز قرار داده می شود. در فشرده سازی، سیگنال به دو روش mp3 و gsm 6.10 فشرده و سپس به فرمت اصلی خود یعنی wav باز گردانده شده و دو پارامتر نرخ خطای بیت و هم بستگی بین نهان نگاره اصلی و استخراج شده محاسبه می گردد. در افزودن نویز، به سیگنال نویز سفید افزوده شده تا میزان نسبت سیگنال به نویز در مقادیر db 10 و db 15 حاصل شود و سپس دو پارامتر نرخ خطای بیت و هم بستگی بین نهان نگاره اصلی و استخراج شده محاسبه می شود. نتایج انجام شده بر روی پایگاه داده timit نشان دهنده ی عملکرد خوب این تبدیل در مقایسه با سایر تبدیل های متداول کسینوسی، فوریه و موجک می باشد.
مهدیه وفایی نژاد هادی گرایلو
ارتباطات ایمن بین یک سرویس دهنده و سرویس گیرنده یکی از موضوعات مهم در دنیای روز می باشد. معمول ترین و شناخته شده ترین سیستم نامتقارن به عنوان rsa شناخته شده که در این زمینه کارهای زیادی انجام و این موضوع به جنبه های متفاوتی از جمله در امضاهای دیجیتال، امنیت پایگاه داده، شبکه های حسگر بی سیم و... اشاره نموده است . این پژوهش، با انتخاب موضوع امنیت اطلاعات تلاش می کند تا به امنیت از نگاه مهندسی نرم افزار نگاه کند. یکی از متداولترین و محوری ترین روشهای حفاظت اطلاعات، رمز نمودن آنها است. دستیابی به اطلاعات رمز شده برای افراد غیر مجاز امکان پذیر نبوده و صرفا" افرادی که دارای کلید رمز می باشند ، قادر به باز نمودن رمز و استفاده از اطلاعات هستند.رمز نمودن اطلاعات کامپیوتر مبتنی بر علوم رمز نگاری است. در این پژوهش یکی از پرکاربرد ترین و گسترده ترین روشهای رمز نگاری یعنی rsa برای رمز نمودن اطلاعات استفاده شده است. درروش پیشنهادی انواع مختلفی از rsa ها شناسایی شده و با توجه به فرمول های مطرح شده در رمز گشایی یکی از عواملی که در زمان اجرای برنامه موثر است یعنی پیچیدگی زمانی الگوریتم را محور بحث خود قرار داده ایم و سپس با قرار دادن اعداد استاندارد در روابط پیچیدگی زمانی زمان را برحسب میلی ثانیه بررسی کرده و اعداد تصادفی را دررابطه زمان رمز گشایی و رمز نگاری قرار داده ایم و نتایج قابل قبولی به دست آورده ایم. به عنوان مثال در rsa اصلی پیچیدگی زمانی آن o(n3) است وطبق محاسبات ما ساده شده پیچیدگی زمانی 1.0 و زمان رمز گشایی با قرار دادن اعدادبهینه تصادفی2438 میلی ثانیه و زمان رمز نگاری 29 میلی ثانیه می باشد. و آخرین نوع پیشنهادی rsa r-prime می باشد که پیچیدگی زمانی آن 19.2میلی ثانیه و زمان رمز گشایی 70 میلی ثانیه و زمان رمز نگاری آن تقریبا صفر است را نتیجه گرفته ایم.با استفاده از الگوریتم rsa در کاربردهای رمز نگاری و امنیت پایگاه داده، امضای دیجیتال، و نیز در شبکه های حسگر بی سیم پرداخته شده که این الگوریتم دارای اندازه کلید و امنیت بالاتری نسبت به دیگر الگوریتم های مورد مقایسه است که جزئیات آن در این پایان نامه بررسی شده است.
ساناز کاراندیش علی مدی
امروزه به دلیل رقابتی شدن صنعت ، مسئله ای که اهمیت زیادی پیدا کرده است ، کاهش هزینه های تولید (به خصوص تعمیر و نگهداری) و همچنین از کار نیفتادن خط تولید کارخانه ها می باشد. هر یک از این دو مشکل هزینه جبران ناپذیری را در پی خواهد داشت. دستگاه های امروزی در صنعت به صورت هوشمند تحت کنترل قرار دارند و اپراتورها و مهندسان تا هنگامی که خطری سیستم ها را تهدید نکند تنها یک نظاره گر هستند و امکان کنترل دستگاه ها به صورت مداوم وجود ندارد ، در صورت غیاب ناظرین دستگاه ها ممکن است خسارات جبران ناپذیری بر سیستم ها وارد آید .از این رو در صدد ساخت سیستمی هستیم که بتواند در کمترین زمان ممکن مسئولین زیربط را جهت بررسی ، تعمیر ، راه اندازی و جلوگیری از متوقف شدن خط تولید در جریان قرار دهد. این سیستم قابلیت مونیتورینگ سیار را داشته و قابل استفاده برای ناظرین و مهندسین می باشد. این دستگاه می تواند در موارد بسیاری از جمله اندازه گیری دما، کنترل خط تولید ، اندازه گیری سایر پارامترها .... به کار گرفته شود. در این پایان نامه به ساخت دستگاهی جهت اندازه گیر دما پرداخته شده است که قادر است اطلاعات را توسط یک فرستنده به مرکز کنترل ارسال کند ، این اطلاعات قابلیت ثبت در مرکز کنترل را دارند و به صورت همزمان به اپراتور ها نیز ارسال می شوند و در صورت بروز تغییرات جدی در سیستم های صنعتی امکان اطلاع رسانی در کمترین زمان ممکن وجود داشته و می توان از بروز خسارات جدی و ایجاد هزینه های زیاد جلوگیری کرد .این سیستم شامل سه قسمت مجزا می باشد.هریک از این قسمت ها عملکرد خاصی را بر عهده دارند.این سه قسمت عبارتند از 1.سنجش دما.2.فرستنده.3. گیرنده.قسمت سنجش دما توسط یک pt100 به اندازه گیری دمای سیستم می پردازد.واطلاعات را به سیستم فرستنده ارسال می کند .قسمت فرستنده پس از انجام پردازش های مورد نیاز این اطلاعات را به گیرنده ارسال می کند و گیرنده این اطلاعات در یافتی را به دما تبدیل کرده و نشان می دهد .در صورت بروز تغییرات جدی دمایی سیستم قابلیت قطع خودکار دستگاه را داشته و همچنین برای دماهای بالا سیستم های اعلام خطری برای هر دمای خاص را دارا می باشد. در ادامه به تفصیل هر یک از بخش ها توضیح داده شده است.
میلاد بزرگمهر هادی گرایلو
امروزه نیاز روزافزون به ارسال و ذخیره سازی اطلاعات، فشرده سازی را به امری بسیار ضروری تبدیل کرده است داده های ویدیویی بسیاری به صورت روزافزون درکاربردهای متنوع و متفاوتی در حال تولید، ذخیره، و ارسال هستند که نقش بسیار مهمی در زندگی روزمره انسان ها و کاربردهای اکتشافی، فضایی و نظامی ایفا می کنند. در بسیاری از این کاربردها نیاز است که تصاویر ویدیویی به صورت بلادرنگ ارسال و ذخیره شوند. در کاربردهای بلادرنگ موضوع بسیار مهم سرعت پردازش است تا بتوان حجم داده های ورودی را به صورت بلادرنگ فشرده کرد، همچنین قابلیت انعطاف سیستم و توانایی به روزرسانی آن با هزینه کم نیز بسیار مورد توجه می باشند. برای افزایش سرعت یکی از بهترین راهکارها استفاده از پردازش موازی می باشد. یک راه کار مناسب برای دستیابی به پردازش موازی استفاده از fpga ها می باشد؛ که توانایی موازی سازی و قابلیت انعطاف بالایی دارند. قابلیت موازی سازی راه کار مناسبی جهت بالا بردن سرعت است که با استفاده از آن می توان با یک طراحی مناسب سرعت و کارایی بالایی برای طرح مورد نظر فراهم کرد. در این پایان نامه، به دنبال ارائه روشی جهت فشرده سازی برخط ویدیو در بستر fpga هستیم. در این راستا ابتدا یک الگوریتم فشرده سازی بلوکی مبتنی بر موجک با پیچیدگی کم و مناسب با بستر سخت افزاری طراحی میکنیم. الگریتم طراحی شده قابلیت موازی سازی بالایی داشته و برداشته شده از الگوریتم های فشرده سازی بلوکی موجود مانند ebcot و sbhp، است، و سپس سخت افزار مطلوب را بر اساس نیاز، طراحی و مونتاژ می کنیم. در پایان تبدیل موجک دو بعدی به روش طرح بالابری در بستر سخت افزار طراحی شده پیاده سازی شد. زمان انجام یک سطح تبدیل موجک بر رویfpga spartan 3 xc3s400 با فرکانس کاری 78mhz برابر 3.65ms است و تعداد برش های مورد استفاده برای پیاده سازی تبدیل موجک 1117 است که در مقایسه با دو روش پیاده سازی شده تبدیل موجک به روش طرح بالابری نتایج شبیه سازی نشان دهنده ی بهبود طرح پیشنهادی از نظر استفاده از منابع موجود در fpga است.
علی رجاییان علی سلیمانی
در این پایان نامه، پیاده سازی یک روش قابل قبول جهت تشخیص خواب آلودگی در رانندگان خودرو بر روی پردازنده های dsp مورد تحقیق و بررسی قرار گرفته است. برای این منظور ابتدا یک پایگاه داده متشکل از 20 داوطلب مرد با میانگین سنی 24 سال ایجاد شده است که داوطلبین مورد نظر در دو حالت هوشیاری و خواب آلودگی به رانندگی با یک دستگاه شبیه ساز پرداخته اند. سپس جهت ارزیابی پایگاه داده از سه روش تبدیل موجک، تبدیل بسته موجک و ردگیری انطباق که طبق دانسته ما برای اولین بار جهت استخراج ویژگی از سیگنال های مغزی استفاده شده، ویژگی های مناسبی در باند فرکانسی دلتا و تتا استخراج شده است سپس توسط طبقه بند svm مورد ارزیابی قرار گرفته اند. نتایج حاصل از طبقه بندی نشان داد که در هنگام خواب آلودگی انرژی ضرایب موجک درکانال های o1 و o2 در باندهای فرکانسی تتا و دلتا افزایش چشمگیری می یابند اما افزایش مقدار آن وابسته به فرد بوده و در تمامی افراد یکسان نیست. در ادامه به منظور پیاده سازی یک الگوریتم مبتنی بر موجک، ابتدا یک سخت افزار مناسب جهت دریافت دو کانال از سیگنال های مغزی طراحی و ساخته شد که از ویژگی های آن می توان به قابل حمل بودن و کم مصرف بودن آن (24 میلی وات) اشاره کرد. سپس جهت پردازش سیگنال های دریافتی یک سخت افزار دیگر مبتنی بر پردازنده tms320c5509a طراحی و ساخته شده است که کاملا قابل حمل بوده و توسط باتری راه اندازی می شود. نتایج بدست آمده نشان می دهد با انتخاب یک آستانه مناسب برای هر فرد می توان حالت خواب آلودگی را در آن تخمین زد.
ساناز خوش ضمیر حسین مروی
سیگنال¬های مغزی در کاربردهای بسیاری نظیر تشخیص بیماری، تشخیص هوشیاری، سیستم¬های bci و غیره مورد استفاده قرار می¬گیرند. در این پایان نامه، هدف، طراحی و ساخت یک سیستم الکترونیکی جهت تشخیص تصور حرکت بازو در کاربردهای bci بر روی پردازنده¬های dsp است. در این راستا با هدف یافتن یک روش مناسب که هم دقت بازشناسی مناسب و هم قابلیت پیاده سازی سخت افزاری داشته باشد، چند روش موجود مورد بررسی قرار گرفته است. به¬دلیل رو به رشد بودن سیستم¬های مبتنی بر سیگنال¬های مغزی، نبود پایگاه داده مناسب در کشورمان، و اهمیت پایگاه داده¬ی مناسب در نتایج تحقیقات، در این پژوهش، یک پایگاه داده¬ی مناسب در زمینه¬ی کنترل حرکت بازو با استفاده از تصورات حرکتی ایجاد شده است. برای تهیه¬ی این پایگاه داده از 3 داوطلب خواسته شد تا 4 حرکت خاص بازو را تصور کنند. این پایگاه داده، برای هر شخص 100 آزمایش از 4 حرکت در دو حالت چشم باز و چشم بسته را شامل می¬شود. سپس از روش ردگیری انطباق، جهت ارزیابی پایگاه داده خود و نیز به عنوان یک روش نو در استخراج ویژگی استفاده شد که طبق تحقیقات صورت گرفته، تاکنون از این روش در این کاربرد استفاده نشده است. این روش، با دو روش موجک و بسته موجک مقایسه و در هر سه روش از طبقه¬بند svm استفاده شده است. طبق نتایج شبیه¬سازی، روش پیشنهادی با توجه به معیارهای میانگین و واریانس دقت بازشناسی، توانست نسبت به دو روش دیگر دقت طبقه¬بندی را تا حدی افزایش دهد. علاوه بر این مشخص شد در روش پیشنهادی با انتخاب درست دیکشنری و تعداد دفعات تکرار مناسب، می¬توان نتایج میانگین بازشناسی را تا حدی بهبود داد. در ادامه به منظور پیاده سازی یک الگوریتم مبتنی بر موجک، ابتدا یک سخت افزار مناسب جهت دریافت دو کانال از سیگنال¬های مغزی طراحی و ساخته شده است که از ویژگی¬های آن می¬توان به قابل حمل بودن و کم مصرف بودن آن (24 میلی وات) اشاره کرد. سپس جهت پردازش سیگنال¬های دریافتی یک سخت افزار دیگر مبتنی بر پردازنده tms320c5509a طراحی و ساخته شده است که این بُرد نیز قابل حمل بوده و توسط باتری قابل راه اندازی است. سپس سیستم طراحی شده برای یک فرد مشخص آموزش داده شده است تا بتواند دو تصور مختلف انجام شده توسط آن فرد را تشخیص دهد. نتایج بدست آمده نشان می¬دهد با استفاده از انرژی ضرایب موجک بدست آمده در باند فرکانسی بتا و انتخاب یک آستانه مناسب برای هر فردی می¬توان تصورات آموزش داده شده را تشخیص داد.
محمد زارع امید رضا معروضی
در این پایان نامه، پیاده سازی روشی برای حذف نویز صوتی به روش فعال بر روی پردازنده-های dsp مورد تحقیق و بررسی قرار گرفته است. برای این منظور ابتدا روش های موجود برای حذف نویز به روش فعال بررسی شد. طبق آنچه که در مقالات و تحقیقات مورد بررسی قرار گرفت الگوریتم fxlms بهترین روش برای حذف نویز صوتی به روش فعال معرفی شده است. بنابراین الگوریتم fxlms مورد مطالعه قرار گرفت و سپس برای بهبود این الگوریتم با بررسی مقالات و کتب مرتبط با این الگوریتم تصمیم به استفاده از تبدیل بسته موجک گرفته شد. با اعمال تبدیل بسته موجک به سیگنال ورودی فیلتر شده در الگوریتم fxlms توانستیم مقدار خطای سیستم را نسبت به حالت مستقیم کاهش دهیم. متوسط این کاهش خطا برای ورودی های مختلف برابر 5 دسی بل محاسبه گردید. در ادامه به منظور پیاده سازی ا لگوریتم fxlms مبتنی بر بسته موجک، ابتدا یک سخت افزار مناسب مبتنی بر lm386 جهت دریافت وتقویت سیگنال های نویز صوتی طراحی و ساخته شد سپس جهت پردازش سیگنال های دریافتی یک سخت افزار دیگر مبتنی بر پردازنده tms320c5509a طراحی و ساخته شده است که کاملاً قابل حمل بوده و توسط باتری نیز راه اندازی می شود. نتایج بدست آمده از شبیه سازی نشان می دهد که حذف نویز صوتی به روش فعال با استفاده از الگوریتم بهبود یافته به خوبی صورت می گیرد.
مهدیه یعقوبی هادی گرایلو
اثر انگشت یکی از مهمترین شاخصهای فیزیولوژیکی است که برای تعیین هویت افراد استفاده می شود. فشرده سازی، برای ذخیره سازی اثر انگشت با حافظه کمتر نقش کلیدی دارد و روشهای فشرده سازی اثر انگشت، برای دستیابی آسان به آن موثر است. یک نوع از تبدیل موجک به راحتی برگشت پذیر می باشد. از این نوع تبدیل موجک در فشرده سازی اثرانگشت استفاده کرده ایم و از آنجا که قابلیت بازشناسی از روی اثر انگشت فشرده شده، برای شناسایی افراد حیاتی است. بدلیل این مطالب پایان نامه ما بر تبدیل موجک و حفظ ویژگیهای بازشناسی بنا نهاده شده است. به منظور بهسازی تصویر کنتراست را در حالتهای مختلف بهبود می دهیم. الگوریتم فشرده سازی ما مبتنی بر روش کدگذاری spiht می باشد. برای بازشناسی از دو روش مختلف استفاده شده است. اولین روش بازشناسی اثر انگشت مبتنی بر استخراج مینیوتیا و دیگری مبتنی برشبکه عصبی می باشد. نتایج شبیه سازی این دو الگوریتم در جدولهایی به صورت نرخ بازشناسی برای نرخهای بیت مختلف، نشان می دهند که روش مبتنی براستخراج مینیوتیا تا نرخ بیت 0.1 بیت برپیکسل درصد بازشناسی حفظ می شود و از نرخ بیت 0.1 به بالا نرخ بازشناسی از روی تصاویر فشرده شده اثر انگشت تفاوت زیادی با تصاویر اصلی ندارند. اما روش مبتنی بر شبکه عصبی با 2 تصویر آموزش تا نرخ بیت 0.5 درصد بازشناسی حفظ می شود. آزمایش فشرده سازی بر روی یک پایگاه داده متشکل از ?? اثر انگشت 256*256 که هر کدام دارای ? تصویر بوده، انجام گرفت.
کریم اصغرزاده علی سلیمانی ایوری
زندگی امروزی بدون ارتباطات بیسیم قابل تصور نیست. با پیشرفت تکنولوژی و ساخت مدارات الکترونیکی و قطعات سخت افزاری کوچک، امکان ساخت شبکه های حسگر بی سیم (wsn) فراهم شده است. استفاده از این نوع شبکه ها در کاربردهای مختلف رو به افزایش می باشد. با این حال wsnها دارای قیدها و محدودیت هایی هستند که منبع تغذیه مهمترین چالش در آنها است. اکثر گره های حسگر دارای منبع تغذیه محدود و احیا نشدنی هستند و جایگزینی باتری یک گزینه مناسب به شمار نمی آید. ازجمله قیدهای دیگر وجود موانع ارتباطی است که پوشش شبکه را با چالش روبرو می کند. روش های زیادی برای بهینه سازی مصرف انرژی و در نتیجه افزایش طول عمر این نوع از شبکه ها پیشنهاد شده است. استفاده از خوشه بندی حسگرها یکی از روشهای کارا در این رابطه می باشد. انتخاب سرخوشه مناسب تأثیر بسزایی در کاهش مصرف انرژی در کل شبکه دارد. هدف ما در این پژوهش پیشنهاد یک روش جدید خوشه بندی مقید شبکه های حسگر بی سیم با شرایط مفروض و انتخاب سرخوشه مناسب با استفاده از الگوریتم تکاملی رقابت استعماری (ica) می باشد. روش پیشنهادی را با پروتکل leach مقایسه و نتایج را بررسی نموده ایم. نتایج شبیه سازی نشان می دهد که روش پیشنهادی ما توانسته است در پارامترهای مختلف شبکه مانند طول عمر، پوشش، حجم داده های جمع آوری شده از محیط و مصرف بهینه انرژی نسبت به leach بهبود نسبی ایجاد کند.
همایون زرشناس هادی گرایلو
مشکلاتی که پس از ضربه مغزی یا بیماریهای دستگاه عصبی رخ میدهد منجر به بروز محدودیتهای حرکتی و کلامی برای مدت طولانی در بیماران میشود. پیشرفتهای صورت گرفته در زمینه ارتباط مغز انسان و کامپیوتر (bci) امکان شناسایی و طبقه بندی فعالیتهای الکتریکی و متابولیک مغز و تبدیل آنها به یک فرمان کنترلی برای کامپیوتر و یا یک دستگاه توانبخشی را فراهم می نماید. در این پایاننامه طراحی مکاترونیکی یک سیستم واسط مغز و کامپیوتر بر پایه سیگنالهای تصور حرکتی با هدف کنترل حرکت یک بازوی رباتیک مورد توجه قرار گرفته است. برای این منظور در پروسه پردازش سیگنال در مرحله استخراج ویژگی از روش بسته موجک برای تحلیل ویژگیهای فرکانسی و زمانی سیگنالهای مغزی دو کلاسه (مربوط به دو تصور حرکتی متفاوت) استفاده شده است. روشهای dslvq و جستجوی فرکانسی به عنوان راهکاری برای کاهش ویژگی مورد استفاده قرار گرفته است. به منظور بررسی عملکرد این روشها، طبقهبندهای خطی و غیرخطی شامل svm، شبکه عصبی چندلایه، mlp)، k-nn، پارزن و طبقه بند بیزین مورد استفاده قرار گرفت. دقت حاصل از این روشها بین 67 تا 90 درصد و بیشینه مقدار ضریب kappa برابر با 0.8 میباشد. در انتها به عنوان یک راهکار ابتکاری و نوین، با هدف افزایش دقت طبقه بندی سیگنالهای مغزی، ترکیب نتایج طبقه بندها در دستور کار قرار گرفته است. از این رو، روش میانگین وزندار مرتب شده (owa) و روشهای مبتنی بر انتگرال فازی (سوگنو و چکوئت) برای اجماع نظر بین نتایج طبقه بندها به کار گرفته شده است. به کمک روشهای owa، سوگنو و چکوئت دقت نتایج طبقه بندی به ترتیب به 93، 95 و 97,5 درصد افزایش یافته است ضمن آنکه زمان مورد نیاز برای پردازش سیگنال در روش owa کوتاهتر می باشد. با توجه به اینکه سیگنالهای مغزی مورد استفاده از بانک داده مربوط به دو کلاس تصور ذهنی مختلف است، بنابراین از نتایج طبقه بندی سیگنالهای مغزی برای کنترل حرکت یک دستگاه توانبخشی آرنج استفاده شده است. دستگاه توانبخشی موردنظر بر اساس پروتکلهای توانبخشی آرنج با هدف افزایش سرعت بهبود بیماران طراحی گردیده است. همچنین با بکارگیری محرک کابلی امکان شبیه سازی هرچه بهتر تغییرات سختی آرنج انسان فراهم شده است. از جمله مزایای مکانیزم ارزان و سبک پیشنهادی، ایجاد حرکت هموار برای مفصل با سختی قابل تنظیم، جبران اثرات گرانش، کاهش ابعاد موتورهای محرک و در موارد توسعه یافته، توانایی کنترل همزمان چند مفصل و انتقال قدرت به میلههای متصل به آنها تنها با استفاده از یک منبع قدرت است. همچنین با ایجاد شرایط حرکتی برگشت پذیر با استفاده از محرک کابلی، تعاملی ایمن و بی خطر بین دستگاه و کاربر شکل گرفته است.
حسین مشیریان عباسی هادی گرایلو
بازشناسی چهره در زمینه¬های بیومتریک، بینایی ماشین و تشخیص الگو بوده و دارای کاربرد گسترده¬ای از جمله مسائل مربوط به سیستم¬های امنیتی می¬باشد. از آن¬جا که عوامل مختلفی از جمله نحوه نورپردازی محیط، نویز، و ماتی تصویر در عملکرد روش های بازشناسی چهره کم و بیش تاثیرگذارند، لذا بررسی روش های رفع ماتی از تصاویر چهره مورد استفاده در الگوریتم¬های بازشناسی چهره، به منظور ارتقا صحت بازشناسی، اهمیت ویژه¬ای دارد. با توجه به این موضوع که مسأله اساسی در کلیه روش¬های بهسازی تصاویر، پی¬بردن به نوع و مشخصات تابع گسترش نقطه¬ای (psf) مربوط به عامل مات کننده تصاویر است، لذا در قسمتی از روش پیشنهادی در این پایان¬نامه با فراگیری دانش قبلی از روی نمونه های آموزش که شامل تصاویر چهره مات شده به صورت مصنوعی می¬باشند، به شناسایی psf عامل مات کننده تصاویر چهره، پرداخته شده است. طبق روش پیشنهادی در این پایان¬نامه ابتدا در مرحله آموزش، مجموعه¬ای از تصاویر چهره مربوط به پایگاه داده orlرا با استفاده از چند psf مشخص، به صورت مصنوعی مات کرده و سپس به آن¬ها نویز سفید با توان متوسط db30 اضافه می¬کنیم. حال، ویژگی¬هایی متشکل از اطلاعات بیشینه مربوط به اندازه مولفه¬های فرکانسی تصاویر مات شده با psf مشابه را در یک دسته قرار داده و با استفاده از شبکه عصبی mlp به فراگیری دانش از روی فضای ویژگی ایجاد شده، می¬پردازیم. سپس در مرحله آزمایش تصویر چهره مات ورودی که دارایpsf مات کننده نامشخص می¬باشد را به فضای ویژگی مرحله آموزش نگاشت داده و به استخراج ویژگی¬های قبلی از روی تصویر نگاشت¬ یافته می¬پردازیم. حال به کمک شبکه عصبی آموزش داده شده قبلی، نزدیکترین دسته به این تصویر را از بین دسته های آموزش داده شده انتخاب، و psf مات کننده تصاویر مربوط به این دسته را به عنوان psf مات کننده تصویر چهره مات ورودی، در نظر می-گیریم. در ادامه، با توجه به این psf و با استفاده از روش دیکانولوشن (عکس پیچش) به بهسازی تصویر ورودی پرداخته و تصویر بهسازی شده را جهت انجام عمل بازشناسی به سیستم بازشناسی چهره تحویل می¬دهیم. طی روش پیشنهادی در این پایان¬نامه با ایجاد فضای ویژگی خاص متشکل از اطلاعات بیشینه مربوط به اندازه¬ مولفه¬های فرکانسی تصاویر مات، موفق به بالا¬بردن دقت شناسایی psf (دقت شناسایی بالاتر از %80 در شرایط نویزی) و در نتیجه افزایش دقت سیستم بازشناسی چهره (افزایش دقت سیستم بازشناسی از %833/19 به %837/90) توسط این روش شده¬ایم. همچنین استفاده از شبکه عصبی جهت شناسایی psf، از یک طرف باعث کاهش 172/41 درصدی متوسط زمان اجرای این روش نسبت به روش¬های نوین ارائه شده در این زمینه شده، و از طرف دیگر قابلیت پیاده¬سازی سخت¬افزاری این روش را نسبت به روش¬های موجود افزایش داده است.
نجمه فیاضی فر حمید حسن پور
سیستم شناسایی و تشخیص اصوات محیط کاربردهای فراوانی در زمینه¬ی هدایت ربات، سیستم¬های نظارت پزشکی و تشخیص نفوذ در سیستم¬های امنیتی و نظارتی دارا می¬باشد. این پایان¬نامه به منظور توسعه¬ی سیستم هوشمندی انجام شده است که بتواند اصوات ضربه¬ای را از غیر¬ضربه¬ای تمییز داده و آن¬ها را دسته-بندی کند. از جمله چالش¬های مطرح در روش¬های موجود در این زمینه، نیاز به پنجره¬گذاری سیگنال¬ها پیش از استخراج ویژگی و سپس استخراج ویژگی¬ها از این پنجره¬ها می¬باشد. ویژگی پیشنهاد شده در این تحقیق، مستقیما از داده¬ها استخراج می¬شود و ضرورتی برای پنجره¬گذاری سیگنال¬ها وجود ندارد. به دلیل استفاده از کل سیگنال در فرآیند استخراج ویژگی، تعداد ویژگی¬های استخراج شده کمتر از سایر روش¬ها بوده و در نتیجه حجم محاسبات سیستم پیشنهادی کم و مناسب برای کاربردهای بلادرنگ می¬باشد. همچنین این روش در مقایسه با سایر روش¬های موجود، در برابر نویز بسیار مقاوم می¬باشد. سیستم پیشنهادی ابتدا ضربه¬ای بودن یا نبودن سیگنال ورودی را بررسی می¬کند. دو رویکرد جدید در این پایان¬نامه، برای شناسایی پیشنهاد شده است. این دو روش بر اساس تغییرات میزان انرژی سیگنال در طول زمان عمل می¬کنند. در بخش شناسایی، سیستم در شرایط بدون نویز توانسته است عملکرد بسیار مناسبی ارائه دهد. در این حالت میزان شناسایی سیستم 100% گزارش شده است. پس از شناسایی اصوات ضربه¬ای، سیستم وارد فاز دسته¬بندی می¬شود. ویژگی جدیدی که در این پایان¬نامه ارائه شده است بر مبنای تفاوت در رفتار سیگنال¬ها و نحوه¬ی رسیدن آن¬ها از مقدار کمینه به بیشینه، عمل می¬کند. در این کار از دسته¬بند k-نزدیک¬ترین همسایه استفاده شده و میزان تشخیص درست سیستم در این حالت 93.75% گزارش شده است که در مقایسه با روش¬های موجود از جمله ضرایب کپسترال فرکانس مل، نقطه¬ی تعادل طیفی و شار طیفی عملکرد بهتری داشته است.
مهدیه غلامعلی بیک هادی گرایلو
قسمت بندی ویدئو به نماهای تشکیل دهنده ی آن یک پیش پردازش بسیار مهم و مورد نیاز در اغلب تحقیقات مربوط به پردازش ویدئو از جمله اندیس گذاری و بازیابی ویدئو می باشد . این پایان نامه روی توصیف فعالیت و حرکت برای تشخیص مرزنما در توالی های ویدئویی مربوط به اخبارورزشی تمرکز دارد. اطلاعات موردنیاز جهت تشخیص صحنه های ورزشی ازغیرورزشی ازروی فعالیت و حرکت در حوزه غیر فشرده بر اساس الگوی تطبیقی (arps ) بدست می آیند . دراین پایان نامه از تعدادی ویدئوشامل اخبارورزشی جهت تشکیل پایگاه داده استفاده شده است . تعدادکل فریم های ویدئویی17925 فریم است . فریم هایی که دارای مجری هستند 7441 فریم می باشد وفریم هایی که توسط برنامه به درستی تشخیص داده شده اند 6454 فریم می باشد . بنابراین دقت بازشناسی برنامه طراحی شده حدود 86/74% می باشد.
معصومه دهقان علیرضا احمدی فرد
در این پایان نامه، روشی برای تشخیص زود هنگام سرطان سینه بر اساس آنالیز آماری بافت و ویژگی های حوزه فرکانس به کمک تصاویر ماموگرافی ارائه شده است. برای این منظور از ضرایب تبدیل موجک به عنوان ویژگی های حوزه فرکانس و آمارگان ماتریس هم رخداد به عنوان ویژگی های آماری بافت استفاده می کنیم. با توجه به حجم بالای ویژگی های استخراج شده از تصویر بافت سینه ، اقدام به انتخاب ویژگی می نماییم. برای این منظور ویژگی هایی را انتخاب می نماییم که استقلال بیشتری نسبت به هم داشته باشند. برای آموزش یک طبقه بند جهت جدا سازی بافت های سالم از میکروکلسیفیکیشن که نشانه اولیه برای سرطان سینه می باشد، ویژگی های اشاره شده از مجموعه آموزشی استخراج می شود. برای این منظور از طبقه بندهای svm و adaboost استفاده نموده ایم، که نتایج تجربی نشان داد که طبقه بند svm با هسته ی rbf بهتر می تواند بافت های سالم و نا سالم را جدا سازی نماید. برای از بین بردن شرایط تصادفی آموزش و آزمایش در مرحله طبقه بندی، از روش 10-fold cross validation استفاده شد تا معیار های ارزیابی طبقه بند از اعتبار کافی برخوردار باشند. برای ارزیابی روش پیشنهادی از پایگاه داده ddsm استفاده شد در این پایگاه داده تصاویر ماموگرافی هر بیمار از زوایای مختلف در دسترس است. هر تصویر توسط متخصص آنالیز شده و در مواردی که رسوب های کلسیمی (میکروکلسیفیکیشن) رویت شده است، منطقه مربوطه توسط متخصص مشخص شده است. با روش انتخاب ویژگی ترتیبی تعداد ویژگی مناسب برای طبقه بندی 13 ویژگی بدست آمد که درصد درستی در تشخیص بافت های سرطانی با طبقه بند svm و هسته ی rbf ، 90% بدست آمد.
بهرام بیات هادی گرایلو
امروزه حجم انبوهی از تصاویر دیجیتال دندان در کلینیک¬های کوچک و بیمارستان¬های بزرگ در حال تولید است و این حجم داده، فضای بزرگی از حافظه کامپیوترها را اشغال می¬کند. از طرف دیگر پهنای باند انتقال برای ارسال این حجم انبوه تصاویر، از کلینیک¬های کوچک به بیمارستان¬های بزرگ با محدودیت روبروست. وجود چنین محدودیت¬هایی از قبیل: کمبود فضای حافظه کامپیوترها، محدودیت پهنای باند انتقال و در عین حال گران بودن حافظه کامپیوتر¬ها، فشرده¬سازی این تصاویر را لازم و ضروری می¬کند. در این تحقیق سعی شده است که با الگوریتم spiht مبتنی بر موجک، بهترین نتایج در فشرده¬سازی بدون اتلاف و با اتلاف از تصاویر دندان به دست آید. برای این منظور چندین موجک بررسی و بهترین نوع موجک انتخاب گردید. نواحی مطلوب (roi) نیز با مشاوره از چندین دندان پزشک مجرب شناسایی شد. این نواحی ابتدا توسط کاربر و سپس با الگوریتم¬های هوشمند قطعه بندی تصاویر (svm و شبکه¬ی عصبی)، الگوبرداری شد. در ادامه نواحی مطلوب تحت عملیات فشرده¬سازی بدون اتلاف و دیگر نواحی نامطلوب که کمتر مورد توجه دندان پزشکان است تحت عملیات فشرده¬سازی با اتلاف قرار گرفت. در نهایت شبکه¬¬ی عصبی پیشرو با استفاده از ویژگی¬های موجک + سوبل توانست با دقت محاسباتی 97%، roi را تشخیص دهد. موجک bior4.4 نیز از میان دیگر موجک¬¬های معروف در علم فشرده سازی بهترین بازده را در فشرده¬سازی تصاویر دندان با بیشترین psnr ممکن به خود اختصاص داد.
احمد معینی رودبالی هادی گرایلو
شناسایی گوینده یکی از شاخه های پردازش گفتار می باشد که کاربرد زیادی در سیستم های امنیتی مبتنی بر پردازش گفتار دارد. در طول چند دهه اخیر تلاش های زیادی برای بهبود کارایی و افزایش دقت سیستم های شناسایی گوینده انجام شده است. اگر چه در اغلب پژوهش ها تمرکز بر افزایش درصد شناسایی و بهبود کارایی سیستم می باشد، با این وجود کمتر بر اهمیت برخط بودن و پیاده سازی سخت افزاری سیستم های شناسایی گوینده تاکید شده است. تمرکز این پایان نامه بر روی پیاده سازی برخط سیستم شناسایی گوینده بر روی یک سیستم سخت افزاری مبتنی بر پردازشگر سیگنال tms320c5509a می باشد. پس از بررسی های انجام شده، روش های طیفی زمان کوتاه انتخاب شده و به صورت خاص از میان این دسته از روش های استخراج ویژگی، روش های mfcc و lpcc برای پیاده سازی سخت افزاری انتخاب شده اند. برای مدل کردن گوینده گان از مدل آمیخته گاوسی استفاده شده است. . اگرچه روش استخراج ویژگی mfcc در محیط بدون نویز قابلیت شناسایی گویندگان را تا 99 درصد دارد، اما در محیط های نویزی، کارایی سیستم به شدت کاهش پیدا می کند. علاوه بر این آموزش مدل های gmm با استفاده از پایگاه داده نویزی نیز باعث کاهش زیادی در درصد شناسایی سیستم می-شود. در آزمایش های انجام شده، داده های آزمایش به صورت مستقیم بر روی پردازنده بارگذاری شده است. نتایج نشان دادند که الگوریتم انتخاب شده قابلیت استفاده به صورت بر خط را دارد.
سید میلاد میرابوالحسنی سیدمجتبی حسینی راد
شبکه های حسگر بیسیم مجموعه ای از گره های حسگر کوچک می باشند که توانایی نظارت و حس محیط پیرامون خود وارسال داده های حس شده را به یک ایستگاه پایه دارند . محدود بودن انرژی موجود در گره ها ، چالش اساسی شبکه های حسگر می باشد که بقای شبکه را تحت تاثیر خود قرار می دهد . از مهمترین مواردی که در شبکه های حسگر بی سیم باعث مصرف انرژی می شوند، الگوریتم مسیریابی می باشد. یک الگوریتم مسیریابی در شبکه های حسگر بی سیم می تواند باعث گردد که طول عمر شبکه کم یا زیاد شود.
هادی گرایلو احسان اله کبیر
چکیده ندارد.
هادی گرایلو مجتبی لطفی زاد
در این رساله، یک سیستم جامع کدکننده/کدگشا مبتنی بر مدل محتوای مخلوط شده در راستا (mrc) برای فشرده سازی با اتلاف اسناد چاپی و با تأکید بر ویژگیهای رسم الخط فارسی/عربی ارائه می گردد. این سیستم قابل انعطاف (تنظیم) بوده و برای تحقق آن بایستی موارد زیر لحاظ شوند: نیاز به ارتباط مناسب بلوکهای عملیاتی مختلف، روشی برای فشرده سازی تصاویر (متنی) دودویی، روشی برای جداسازی متن از پس زمینه ی آن، فنونی به منظور استفاده ی بهینه از ویژگیهای تصاویر متنی برای افزایش میزان فشرده سازی و بالاخره، فنون مناسبی برای کدگذاری دنباله های عددی و یا الگوهای تصویری مختلف. در این رساله برای هر یک از این موارد، روشها یا فنونی پیشنهاد می شود. نوآوریهای عمده ی این رساله عبارتند از طراحی بلوکهای عملیاتی مختلف و پیونددهی سازواره ای مناسب آنها در قالب مدل mrc، ارائه ی یک روش مناسب برای جداسازی متن از پس زمینه، ارائه ی یک روش موثر برای فشرده سازی تصاویر متنی دودویی، پیشنهاد طرحهایی کارآمد برای کدگذاری لایه های پیش زمینه و پس زمینه، و بالاخره، مدل کردن تغییرات لبه های متنی با یک تابع چندجمله ای. در این تحقیق، کارایی هر روش پیشنهادی، از جنبه های مختلف شامل کارایی فشرده سازی (بر طبق معیارهای نرخ/میزان فشرده سازی و میزان وفاداری)، مدت زمان اجرا، و کارایی جداسازی (بر طبق معیارهای دقت، یادآوری، متوسط نرخ بازشناسی، و متوسط امتیاز نظرسنجی) مورد ارزیابی و مقایسه با بهترین روشهای متناظر امروزی قرار گرفته است. برای فشرده سازی تصاویر متنی دودویی (یا لایه ی پوشش مورد استفاده در مدل mrc) برای اولین بار، روشی مبتنی بر فن انطباق الگوی یک بعدی پیشنهاد شده است که میزان فشرده سازی آن در حالت بدون اتلاف تا 7/3 برابر بیشتر از میزان فشرده سازی روش jbig2 و در حالت با اتلاف نیز تا 4/3 برابر بیشتر از میزان فشرده سازی روش jb2 می باشد. مهمترین ایراد این روش، حجم محاسباتی نسبتاً بالای آن است. برای جداسازی متن از پس زمینه، روشی پیشنهاد شده است که مناسب متون فارسی و عربی است، زیرا قادر به جداسازی مناسب اجزای متنی کوچک مانند نقطه و سرکش حروف می باشد. ما برای اولین بار، روش جداسازی خود را برطبق سه معیار "خوانایی"، "خوشایندی" و "میزان قابلیت بازشناسی نوری حروف" (ocr) ارزیابی کرده ایم. میزان "خوانایی" را برطبق معیارهای کمّی "دقت"، "یادآوری" و "هارمونیکی وزن دار" به صورت عددی بیان و آنها را با مقادیر متناظر برای روش مبتنی بر k-means (مورد استفاده در روش djvu) مقایسه کرده ایم. مقادیر معیارهای دقت، یادآوری و هارمونیکی وزن دار برای روش جداسازی پیشنهادی به ترتیب برابر 95%، 92%، 93% و برای روش مبتنی بر k-means به ترتیب برابر 90%، 79% و 84% می باشند. میزان "خوشایندی" را بر طبق معیار متوسط امتیاز نظرسنجی (mos) و با استفاده از نظرات 45 نفر مشاهده گر به صورت کمّی محاسبه کرده ایم. مقدار این معیار برای روش پیشنهادی برابر 4/5 و برای روش مبتنی بر k-means برابر 3/1 به دست آورده شده است. میزان "قابلیت بازشناسی نوری حروف" را نیز با محاسبه ی معیار متوسط نرخ بازشناسی ارزیابی کرده ایم. این معیار برای تصاویر جداسازی شده توسط روش پیشنهادی برابر 94% و برای تصاویر حاصل از روش مبتنی بر k-means برابر 83% محاسبه شده است. برای ارزیابی فشرده سازی با اتلاف تصاویر (رنگی) اسناد از دو معیار میزان فشرده سازی و متوسط امتیاز نظرسنجی استفاده کرده ایم. از نظر مقایسه ی میزان فشرده سازی با اتلاف تصاویر اسناد رنگی، میزان فشرده سازی روش پیشنهادی تا 2/3 برابر بیشتر از مقدار آن برای روش djvu است. همچنین، متوسط امتیاز نظر سنجی برای روش پیشنهادی برابر 4/3 و برای روش djvu برابر 3/2 به دست آمده است. در تمامی موارد فوق الذکر، بیشترین مقادیر میزان فشرده سازی مربوط به تصاویر اسناد فارسی و عربی بوده است. علاوه بر معیارهای مختلف بیان شده تاکنون، معیار"متوسط مدت زمان اجرا" نیز برای بیشتر روشها محاسبه گردیده است که معمولاً روشهای پیشنهادی متوسط مدت زمان اجرای بیشتری نسبت به روشهای مورد مقایسه داشته اند.