نام پژوهشگر: علی محمد زارع بیدکی

تقسیم بار و پوشش خطا در شبکه های voip مبتنی بر sip
پایان نامه وزارت علوم، تحقیقات و فناوری - دانشگاه یزد 1389
  علیرضا کریمی الیاتو   مهدی آقا صرام

با گسترش چندرسانه ای در شبکه ها، مرزهای موجود بین شبکه ها تغییر پیدا کرد و تمام شبکه ها به سمت یکی شدن پیش رفتند. یکی شدن شبکه های داده، شبکه های ویدئویی و شبکه?های صدا در یک شبکه (شبکه داده) در کنار مزایای بسیار زیاد، مشکلاتی را نیز به همراه آورده است. دلیل این مشکلات هم در نظر نگرفتن نیازهای امروز در زمان طراحی شبکه های داده به عنوان شبکه منتخب برای گنجاندن تمام شبکه ها در خود می باشد. برای ادغام شبکه های صدا با شبکه های داده چالش هایی وجود دارد که یکی از مهمترین این چالش ها پایین بودن زمان در دسترس بودن سرویس ها در شبکه های داده در مقایسه با شبکه های صدا می باشد. پروتکل sip به عنوان پروتکلی که در آینده تمام کاربردهای چندرسانه ای از آن استفاده خواهند کرد از اهمیت به سزایی برخوردار است. یکی از مولفه های بسیار مهم در شبکه های sip، سرور پروکسی است. در صورتی که این سرور دچار مشکل شود و یا بار بیش از حدی به آن اعمال شود، شبکه دیگر امکان سرویس دهی به درخواستها را نخواهد داشت. برای جلوگیری از این امر از مجموعه ای از سرورها برای سرویس دهی استفاده می شود و با تکنیکهایی سعی در تقسیم بار بین سرورها و انتخاب یک سرور سالم برای پاسخگویی به درخواستها در صورت خرابی یک یا تعدادی از سرورها می شود. ما جهت تقسیم بار و پوشش خطا از یک معماری دو مرحله ای استفاده کردیم که در مرحله اول توزیع کننده ها و در مرحله دوم سرورهای پروکسی sip قرار دارند. برای انجام تقسیم بار توزیع کننده ها تعداد اتصالات به هر سرور پروکسی و همچنین زمان پاسخ سرورهای پروکسی را در نظر می گیرند. نتایج به دست آمده نشان دهنده کارآیی بهتر این روش نسبت به روش مورد استفاده در ماژول dispatcher موجود در سرور opensips است.

ترکیب کارای وب سرویس های مبتنی بر کیفیت سرویس
پایان نامه وزارت علوم، تحقیقات و فناوری - دانشگاه یزد 1389
  محمود علامه امیری   ولی درهمی

کیفیت سرویس جزء یکی از مهمترین مباحث در ترکیب وب سرویس ها می باشد. کیفیت سرویس در وب سرویس ها شامل یک سری ویژگی های غیر عملیاتی مانند هزینه اجرا، زمان اجرا، دردسترس پذیری، نرخ موفقیت در اجرا و امنیت می باشد. در سال های اخیر، تعداد وب سرویس ها به شدت افزایش یافته است، در نتیجه تعداد وب سرویس هایی که عملکرد یکسانی دارند نیز افزایش یافته است. تفاوت این وب سرویس های مشابه، تنها در کیفیت عملکردشان می باشد. همچنین مشتریان هر روزه درخواست انجام کار های پیچیده تری دارند به طوری که انجام آن کار توسط یک وب سرویس امکان پذیر و به صرفه نیست. بنابراین انتخاب یک طرح ترکیبی از میان طرح های ترکیبی مختلف که بتواند نیاز های کیفی مشتریان را برآورده کند تبدیل به یکی از مهمترین مباحث شده است. در این پایان نامه یک بهینه ساز ترکیب وب سرویس ها بر اساس کیفیت سرویس که با استفاده از الگوریتم ژنتیک کار می کند پیشنهاد شده است. روش پیشنهادی می تواند طرح مورد نظر را که نیاز های کیفی مشتری را برآورده می سازد، به صورت موثری پیدا کند. برای رهایی از دام بهینه های محلی راه های متعددی پیشنهاد شده است. توابع تولید اولیه ی کروموزوم ها، انتخاب و برازش به نحوی طراحی شده اند که الگوریتم بتواند به سرعت به سمت جواب بهینه همگرا شود. همچنین برای جلوگیری از به دام افتادن الگوریتم در دام بهینه های محلی روش موثری پیشنهاد شده است. کارایی این الگوریتم در محیط شبیه سازی ارزیابی شده است. نتایج حاکی از کارایی قابل قبول این روش دارد. این الگوریتم هم از لحاظ زمان بدست آوردن جواب بهینه و هم از لحاظ عدم به دام افتادن در دام بهینه های محلی از الگوریتم های مشابه بسیار بهتر می باشد.

به کار گیری الگوریتم پرندگان برای مسیریابی چند پخشی بهینه در شبکه های سیار موردی
پایان نامه وزارت علوم، تحقیقات و فناوری - دانشگاه یزد 1389
  علیرضا ساجدی نسب   لیلی محمد خانلی

شبکه سیار موردی یک شبکه خود مختار است که در آن گره ها می توانند آزادانه در هر جهت حرکت نمایند. چند پخشی راه کاری است که در بسیاری موارد مانند به روزرسانی پایگاه داده های توزیعی، کاربرد دارد. درخواست برای افزایش کیفیت خدمات در بسیاری از کاربردها از جمله آموزش از راه دور، با رشد شبکه ها، در حال افزایش است. برای مسیریابی چند پخشی نیاز به یک درخت چند پخشی است تا با استفاده از آن بتوان بسته چند پخشی را به مقصد رساند. مسئله مهم در شبکه های سیار موردی در نظر داشتن مقدار انرژی باطری گره ها است تا با صرفه جویی در مصرف انرژی باطری گره ها، بتوان عمر شبکه را بیشینه نمود. بدست آوردن درخت چند پخشی که بتواند محدودیت های مسئله را برآورده نماید، یک مسئله np-complete است. برای همین برای حل این مسئله از روش های جستجوی هوشمند مانند الگوریتم ژنتیک و الگوریتم پرندگان می توان استفاده نمود. در این تحقیق به بررسی مسیریابی چند پخشی بر اساس الگوریتم پرندگان پرداخته شده است. الگوریتم پرندگان یکی از الگوریتم های هوش جمعی است که بر اساس رفتار پرندگان ساخته شده است. به منظور نمایش کارایی الگوریتم مسیریابی آگاه از انرژی بر اساس الگوریتم پرندگان، این الگوریتم با الگوریتم ژنتیک، مقایسه شده است. نتایج شبیه سازی نشان می دهد که الگوریتم مسیریابی بر پایه الگوریتم پرندگان، کارا می باشد.

گسترش پرس و جو در موتور جستجوی فارسی
پایان نامه وزارت علوم، تحقیقات و فناوری - دانشگاه یزد 1390
  سیامک ساعدی   علی محمد زارع بیدکی

پرس وجو برای بیان نیازهای کاربران به اطلاعات موجود در صفحات وب و سایر منابع، مطرح می شود. پرس وجوهای کاربران معمولاً «بسیار کوتاه» و شامل دو یا سه کلمه می باشند. قابلیت زبان های مختلف در بیان یک مفهوم با چندین کلمه مترادف و وجود یک کلمه با بیش از یک معنی، منجر به مشکل «عدم تطابق کلمه» و «مبهم بودن پرس وجو» می شوند. در نتیجه تعداد زیادی اسناد غیرمرتبط بازیابی شده و دقت کاهش می یابد. برای رفع این مشکلات از تکنیک گسترش پرس وجو استفاده می شود که از طریق پیشنهاد و افزودن واژگان مناسب به پرس وجوی کاربر، موجب بهبود دقت بازیابی خواهد شد. مهمترین مسئله، تشخیص و انتخاب واژه خوب برای افزودن به پرس وجوی کاربر می باشد. در مباحث گسترش پرس وجو دو عامل مهم «روش انتخاب واژگان گسترش» و «منابع واژگان گسترش» وجود دارد. در این پایان نامه با درنظر گرفتن ویژگی های زبان فارسی و مسائل مرتبط با آن، به بررسی گسترش پرس وجو در موتور جستجوی فارسی می پردازیم. برای این کار از هستان شناسی عمومی فارس نت و شبکه مفهوم استفاده می کنیم که در برگیرنده روابط میان مفاهیم و کلمات می باشد. پس از دریافت پرس وجوی کاربر از طریق مطابقت آن با شبکه مفهوم، گروهی از کلمات مرتبط با پرس وجوی کاربر استخراج می شوند و در مرحله بعد مطابق الگوریتم ارائه شده، رتبه بندی می شوند. در پایان تعدادی از کلمات بسیار مرتبط با پرس وجوی کاربر به صورت خودکار به پرس وجوی اولیه کاربر افزوده می شوند و پرس وجوی گسترش یافته مورد جستجو قرار می گیرد. نتایج آزمایش های انجام شده، نشان دهنده بهبود عملکرد و افزایش دقت بازیابی می باشد.

رتبه بندی اسناد وب بر اساس روش های انتشار وابستگی
پایان نامه وزارت علوم، تحقیقات و فناوری - دانشگاه یزد 1390
  سید احسان موسی کاظمی   مهدی آقا صرام

در سالیان اخیر استفاده از وب به عنوان منبع اصلی کسب اطلاعات، رشد فزاینده ای داشته است. از جمله ابزارهای بسیار کارآمد برای جستجو در وب، موتورهای جستجو هستند و چالش اصلی موتورهای جستجو، رتبه بندی نتایج بازیابی شده در پاسخ به پرس وجوی کاربر است. تاکنون الگوریتم های مختلفی بدین منظور ارائه شده اند که به دو دسته کلی الگوریتم های مبتنی بر محتوا مانند tf-idf و bm25 و مبتنی بر اتصال مانند pagerank، distancerank و hostrank تقسیم می شوند. به دلیل دقت پایین روش های سنتی برای رتبه بندی در وب، اخیراً روش های ترکیبی که بصورت همزمان از محتوای اسناد و پیوند بین آن ها استفاده می کنند، معرفی شده اند. هدف از این پژوهش مروری کوتاه بر مهم ترین الگوریتم های رتبه بندی و بررسی روش های مبتنی بر انتشار وابستگی بعنوان زیرمجموعه ای از روش های ترکیبی است. وجه تسمیه روش های انتشار وابستگی روش عملکرد آن هاست که مبتنی بر انتشار امتیاز و یا خصوصیات یک صفحه با استفاده از گراف وب است. در ادامه روشی جدید برای رتبه بندی پیشنهاد می گردد که بر مبنای روش های انتشار وابستگی عمل نموده و با دخیل نمودن معیار محبوبیت صفحات در زمان انتشار، بهبود نسبی در کارایی روش مبنا بوجود می آورد.

خزش و رتبه بندی کارا مبتنی بر ویژگی های گراف وب
پایان نامه وزارت علوم، تحقیقات و فناوری - دانشگاه یزد 1390
  محمدامین گلشنی   علی محمد زارع بیدکی

موضوع پایان نامه به خزش و رتبه بندی صفحات وب اختصاص داده شده است. خزش و رتبه بندی از بخش های مهم در موتور های جستجو می باشند که به ترتیب وظیفه ی بارگذاری صفحات با کیفیت و رتبه بندی نتایج بازگشتی به کاربر را بر عهده دارند. تا کنون الگوریتم های خزش متنوعی پیشنهاد شده اند، اما یا بازدهی مناسبی نداشته اند یا از پیچیدگی بالایی برخوردار هستند. لذا الگوریتم خزش کارایی به نام ieca(intelligent effective crawling algorithm) پیشنهاد می گردد که نسبت به الگوریتم های فعلی از کارایی بالاتر و پیچیدگی پایین تری برخوردار می باشد. در روش پیشنهادی اهمیت صفحات بر اساس چندین ویژگی نظیر درجات ورودی ، فاصله لگاریتمی و خاصیت ساختاری گراف وب (بالابودن درجه ورودی در صفحات با کیفیت) تعیین می گردد. نتایج آزمایشات بر روی چهار گراف مختلف وب (ایران، انگلستان، ایتالیا و گراف وب دانشگاه برکلی) حاکی از کاراتر بودن الگوریتم پیشنهادی نسبت به سایر الگوریتم های خزش می باشد. همچنین بخشی از پایان نامه به مبحث رتبه بندی اختصاص گرفته و مدلی مبتنی بر انتشار شامل دو الگوریتم به نام های hyperlink-based slash-score propagation(hss) و hyperlink-based slash-term propagation(hst) جهت تعیین رتبه ی صفحات پیشنهاد گردید. جهت ارزیابی مدل رتبه بندی پیشنهادی letor 3 مورد استفاده قرار گرفت. بر اساس آزمایشات دو الگوریتم پیشنهادی نسبت به سایر الگوریتم های رتبه بندی انتشاری از دقت بهتری برخوردار هستند.

ترجمه هوشمند اسامی فارسی در بازیابی اطلاعات بین زبانی
پایان نامه وزارت علوم، تحقیقات و فناوری - دانشگاه یزد - دانشکده مهندسی برق و کامپیوتر 1391
  زهره حق اللهی   علی محمد زارع بیدکی

با گسترش روزافزون استفاده از اینترنت، کاربران و جستجوگران اطلاعات، دیگر تنها به منابع اطلاعاتی که به زبان آنها نوشته شده اکتفا نمی کنند. بنابراین سیستم های بازیابی اطلاعات بین زبانی، این نیاز را برای کاربران برآورده می سازند. به این صورت که می توان تنها با دادن پرس وجو در یک زبان، اسناد با زبان های مختلف را بازیابی کرد. از بین پرس وجوهای کاربران، اسامی افراد از اهمیت خاصی برخوردار هستند. زیرا تعداد زیادی از پرس وجوها به اسامی افراد اختصاص می یابد. همچنین کاربران زیادی صفحات شخصی خود را به زبان های دیگر طراحی می کنند. بنابراین در صورت تشخیص این اسامی در پرس وجوها و تبدیل آنها به زبان های دیگر (که نویسه گردانی نام دارد)، می توان به صفحات شخصی آنها مستقل از زبانی که هستند، دست یافت. در این پایان نامه، مروری کوتاه بر الگوریتم های تشخیص نام، سیستم های بازیابی اطلاعات بین زبانی و نیز به طور خاص نویسه گردانی کلمات انجام شده است. همچنین چالش های مطرح شده در این زمینه و روش عملکرد و نقاط قوت و ضعف آنها مورد بررسی قرار گرفته اند. در ادامه روشی برای تشخیص اسامی افراد به زبان فارسی با استفاده از موتور جستجو و همچنین روشی نوین به منظور نویسه گردانی این اسامی با استفاده از محتوای صفحات وب فارسی پیشنهاد شده است. مطابق آزمایشات انجام شده با استفاده از روش های پیشنهادی، می توان به دقت بالایی در زمینه تشخیص و ترجمه اسامی خاص و یا به عبارتی بازیابی اطلاعات بین زبانی اسامی افراد دست پیدا کرد.

بکارگیری تکنیکهای پردازش زبان طبیعی برای تطبیق سوال در سیستمهای پرسش و پاسخ فارسی
پایان نامه وزارت علوم، تحقیقات و فناوری - دانشگاه یزد - دانشکده برق و کامپیوتر 1391
  سارا ایزدی بروجنی   محمد قاسم زاده

از جنبه های مهم در فناوری اطلاعات، امکان یافتن پاسخ سوالات از بستره های آن میباشد. فضای اینترنت شامل حجم عظیمی از اطلاعات و از آن جمله جفتهای پرسش و پاسخ است. لذا این قابلیت که بتوان سوال معادل و یا سوال مشابه با سوال کاربر را به سرعت یافته و پاسخ مربوطه را ارائه داد اهمیت ویژه ای یافته است. در این زمینه کوششهایی برای سایر زبانها صورت پذیرفته و آن جام آن برای زبان فارسی نیز الزامی میباشد. در روشهای ارائه شده برای تطبیق سوال، روشهای مبتنی بر پردازش زبانهای طبیعی و بازیابی اطلاعات بالاترین کارایی را دارند. در این پژوهش روشی مبتنی بر ترکیب فضای برداری و تعمیمی از مدلهای زبانی بای گرم و تری گرم برای تطابق سوال فارسی ارائه میگردد. روش مورد نظر پیاده سازی و بر روی دادههای محک انبوه ارزیابی شده اند. دادههای محک شامل بایگانی سرویس پرسش و پاسخ برخط راسخون، که حاوی بیش از هجده هزار جفت پرسش و پاسخ است، میباشد. حجم پردازش و سایز ورودی لزوم به کارگیری الگوریتمهای کارآمد با درجه پیچیدگی زمانی و هم چنین درجه پیچیدگی حافظه پایینتری را ملزم میداشت که از جمله نتایج این تحقیق میباشند. از آن جایی که تمرکز اصلی در این تحقیق، ارزیابی کارایی مدلهای زبانی است، میزان بهبود تطابق سوال نسبت به روشی که تنها فضای برداری استفاده شود نیز مقایسه شده است. نتایج این مقایسه نشان از بهبود معیارهای دقت و فراخوانی با استفاده از مدلهای زبانی ارائه شده است. کارایی این مدل را میتوان تا حدود زیادی شبیه به کارایی مدلهای تطبیق سوال ارائه شده در سایر زبانها دانست که اکثر این مدلها، از ابزارهای پیشرفته پردازش زبان طبیعی استفاده میکنند.

رتبه بندی تصاویر بر مبنای پرس وجوی کاربر
پایان نامه وزارت علوم، تحقیقات و فناوری - دانشگاه یزد - دانشکده مهندسی برق و کامپیوتر 1392
  سید کاظم میردهقان   علی محمد زارع بیدکی

جستجو در اینترنت کنونی به امری پیچیده تبدیل شده است. دلیل این امر رشد روزافزون در تصاویر موجود در وب می باشد. برای جستجوی تصاویر دلخواه کاربر، به یک موتور جستجوی کارامد نیاز است تا در کمترین زمان ممکن، متناسب ترین تصاویر با پرس وجوی کاربر را به او ارائه نماید. چالش اصلی موتورهای جستجو، رتبه بندی تصاویر بازیابی شده از پرس وجوی کاربر است. برای رتبه بندی تصاویر الگوریتم های مختلفی وجود دارد که می توان آن ها را به پنج دسته الگوریتم های مبتنی بر محتوای متنی ، الگوریتم های مبتنی بر محتوای دیداری ، الگوریتم های مبتنی بر اتصال ، الگوریتم های مبتنی بر رفتار کاربر و الگوریتم های ترکیبی تقسیم نمود. برخی از این الگوریتم ها از دقت کافی برخوردار نیستند و برخی دیگر دچار درجه پیچیدگی بالا در پردازش تصویر می باشند. هدف اصلی این پژوهش، مروری بر الگوریتم های رتبه بندی تصاویر بازیابی شده از پرس وجوی متنی کاربر و بررسی روش عملکرد و نقاط ضعف و قوت هر کدام می باشد. در ادامه روش جدیدی برای رتبه بندی تصاویر برای استفاده در موتورهای جستجو پیشنهاد می گردد که ترکیبی از رتبه بندی بر اساس محتوای متنی و به کارگیری محتوای دیداری تصاویر به منظور ادغام اسناد با تصاویر مشابه می باشد. این ادغام باعث غنی تر شدن محتوای متنی اسناد تصویری شده و دقت جستجو را افزایش می دهد. سپس با استفاده از یک الگوریتم یادگیری جفتی و مجموعه داده محک تولیدی که توسط افراد خبره برچسب گذاری شده است، وزن فیلدهای متنی مورد جستجو را تنظیم می کنیم. نتایج آزمایش ها نشان می دهد این روش می تواند دقت رتبه بندی را تا حد بالایی افزایش دهد.

رتیه بندی هوشمند گراف وب برای مقابله با صفحات فریب آمیز
پایان نامه وزارت علوم، تحقیقات و فناوری - دانشگاه یزد - دانشکده مهندسی برق و کامپیوتر 1392
  معین شهبازی   علی محمد زارع بیدکی

با گسترش روزافزون وب در سالهای اخیر و کاربرد های آن در همه زمینه ها از جمله تجارت الکترونیک، بازرگانی و اجتماعی و همچنین با بالا رفتن پتانسیل سود در وب، اکثر توسعه دهندگان صفحات به فکر بازدیدکننده بیشتر از سایت ها هستند. در این میان تشخیص محتوای با کیفیت از تلاش های فریب کارانه جهت به بازی گرفتن موتورهای جستجو به یکی از چالش های اصلی این موتورها تبدیل شده است. تاکنون الگوریتم های مختلفی برای مقابله با صفحات فریب آمیز ارائه شده اند که به دو دسته کلی الگوریتم های براساس محتوا و الگوریتم های براساس پیوند تقسیم می شوند. دسته اول با تجزیه و تحلیل محتوای اسناد توانایی تشخیص و مقابله با صفحات فریب آمیز را دارند. همچنین در دسته دوم با تجزیه و تحلیل پیوند و رفتار بین صفحات عمل مقابله و تشخیص انجام می شود. مشکل اصلی الگوریتم های مبتنی بر محتوا، نادیده گرفتن پیوندهای بین صفحات است. در مقابل در الگوریتم های براساس پیوند تشخیص الگوهای غیرطبیعی در میان گراف های بزرگ از چالش های این الگوریتم ها است. هدف اصلی این پایان نامه، ارائه یک روش رتبه بندی ترکیبی به منظور مقابله با صفحات فریب آمیز است. در این روش با ترکیب الگوریتم های مختلف رتبه بندی سعی می شود رتبه صفحات فریب آمیز پایین کشیده شود. با توجه به کارایی پایین روش های پایه ای موجود در مقابله با این پدیده روش پیشنهادی سعی می کند با دخیل کردن یادگیری ماشین در فرآیند رتبه بندی بهبود نسبی در کارایی روش مبنا بوجود می آید. در این روش سعی می شود هر چه بیشتر پویایی گراف وب با استفاده از روش های یادگیری مدل شود. فرآیند یادگیری جهت ترکیب رتبه های مختلف با استفاده از مشاهدات و دانش قبلی می باشد که در این حالت روش پیشنهادی دارای کارایی و دقت بیشتری نسبت به روش موجود می باشد.

ارائه روشی جهت بهبود تشخیص صفحات فریب آمیز در گراف وب فارسی
پایان نامه وزارت علوم، تحقیقات و فناوری - دانشگاه یزد - دانشکده برق و کامپیوتر 1393
  مرضیه پارویی   علی محمد زارع بیدکی

امروزه با افزایش چشمگیر استفاده از اینترنت و همچنین رشد بسیار فزاینده صفحات وب، استفاده از موتورهای جستجو اهمیت بیشتری پیدا کرده است. در نتیجه بعضی از افراد برای بدست آوردن مخاطب بیشتر و در نتیجه سود بیشتر تلاش می کنند موتورهای جستجو را گمراه کنند و رتبه صفحات مورد نظر خود را با روش های نامشروع بالا ببرند. شناسایی این صفحات (که به آنها صفحات فریبکار می گویند) می تواند نقشی اساسی در بهبود عملکرد موتورهای جستجو و بالا بردن اطمینان کاربران به آنها گردد. وب فریبکارانه پدیده ای است که پیدایش آن همزمان با ظهور وب بوده و در سا ل های اخیر بسیار شایع شده است. روش های مختلفی برای تولید صفحات فریب آمیز مورد استفاده قرار می¬گیرند اما همیشه با توجه به الگوریتم¬هایی که موتورهای جستجو برای رتبه¬بندی صفحات وب به کار می برند ترفندهای جدید فریبکاری ابداع می شود. فریبگرها از دو روش کلی فریبکاری مبتنی بر محتوا و فریبکاری مبتنی بر پیوند برای فریب موتورهای جستجو استفاده می کنند. در این پایان نامه ابتدا به معرفی روش ها و الگوریتم های مختلف تشخیص صفحات وب فریب آمیز می پردازیم. در نهایت روشی جدید جهت شناسایی صفحات فریب آمیز در گراف وب فارسی ارائه می گردد. این روش ترکیبی از روش های مبتنی بر محتوا و پیوند است و با بهره گیری از اطلاعات محتوا و پیوند، صفحات فریب آمیز را شناسایی می کند. این روش بر روی داده های موتور جستجوی فارسی پارسی جو پیاده سازی شده است و نتایج ارزیابی های صورت گرفته قبل از پیاده سازی این الگوریتم و پس از آن بهبودی برابر با 21.2% را در فاکتور دقت نشان می دهد.

رتبه بندی هوشمند اسناد وب با استفاده از روش های جفتی
پایان نامه وزارت علوم، تحقیقات و فناوری - دانشگاه یزد - دانشکده برق و کامپیوتر 1393
  محمدرضا دهقانی محمودآبادی   علی محمد زارع بیدکی

امروزه به دلیل حجم عظیم اطلاعات در وب و همچنین پویا بودن اطلاعات، مهم ترین چالش در بازیابی اطلاعات وب، خصوصاً موتورهای جستجو، رتبه بندی نتایج در پاسخ به پرس و جوی کاربر است. تاکنون الگوریتم های متنوعی که مبتنی بر محتوا و اتصال می باشند ارائه شده اند. علاوه بر روش های سنتی، روش های نوینی با عنوان روش های یادگیری جهت رتبه بندی مطرح شده است که به طور خلاصه عبارت است از ایجاد یک مدل خودکار رتبه بندی بر اساس داده های آموزشی به نحوی که این مدل قادر به مرتب سازی اسناد جدید بر اساس درجه مرتبط بودن آن ها با پرس وجوهای کاربران، میزان اهمیت اطلاعات اسناد و فاکتورهای دیگری از این قبیل باشد. در این پایان نامه ابتدا به معرفی رویکردهای اصلی روش های یادگیری جهت رتبه بندی پرداخته و در ادامه به بررسی تعدادی از الگوریتم های رتبه بندی به روش یادگیری مبتنی بر رویکرد جفتی می پردازیم. در نهایت روشی جدید جهت رتبه بندی صفحات وب مبتنی بر روش یادگیری جفتی ارائه می گردد. این روش، ترکیبی از روش های رتبه بندی svm و rankboost می باشد و برای رتبه بندی از روش svmprimal به عنوان یادگیرنده ضعیف در الگوریتم رتبه بندی rankboost استفاده می کند. این روش بر روی مجموعه داده trec2004 پیاده سازی شده است و نتایج ارزیابی های صورت گرفته، بهبود 10% نسبت به الگوریتم rankboost و بهبود 38% نسبت به الگوریتم svmprimal بر اساس معیار دقت را نشان می دهد.

طراحی سوئیچ ‏‎atm/ip‎‏
پایان نامه وزارت علوم، تحقیقات و فناوری - دانشگاه تهران 1381
  علی محمد زارع بیدکی   ناصر یزدانی

با پدیده نوظهور اینترنت و گسترش روزافزون شبکه های داده نیاز به سوئیچ های با ظرفیت بالا بیش از پیش احساس می گردد. اغلب سوئیچهای پرظرفیت از نوع سوئیچ های با بافر ورودی حافظه مشترک برای نیل ب سرعت بالا می باشند. دسته اول این سوئیچها، بافر ورودی از مشکل ‏‎hol(head of line blocking)‎‏ رنج می برند که بازدهی آنها را به 6/58درصد کاهش می دهد.