1. برای کسب اطلاعات بیشتر در ساعات 9 الی 13 و 16 الی 18 با شماره 08138270182 یا 09353637799 تماس حاصل فرمایید.
    آدرس ایمیل: info@wsnlab.ir
    آدرس کانال تلگرام http://telegram.me/gloriot
  2. بدین وسیله به اطلاع پژوهشگران محترم می رسانیم که آزمایشگاه اینترنت اشیاء ایران راه اندازی شد. از این پس می توانید با شماره تلفن همراه 09353637799 با لابراتوار در تماس باشید.

کوتاهترين مسير در گراف هاي تصادفي با آتوماتاي يادگير توزيع شده

شروع موضوع توسط Homaei 10/4/14 در انجمن هوش مصنوعی، الگوریتم های هوشمند

تلفن سفارش: 08138311237 تلفن سفارش: 08138311237
  1. Homaei مدیر کل سایت

    تاریخ عضویت:
    25/2/12
    تعداد ارسال ها:
    2,038
    تشکر شده:
    11,617
    امتیاز دستاورد:
    12,265
    وب سایت:
    کوتاهترين مسير در گراف هاي تصادفي با اتوماتاي يادگير توزيع شده
    در ابتدا شبکه اي از اتوماتاي يادگير که منطبق بر گراف است ايجاد مي شود. در اين شبکه هر پيوند يک اتوماتاي يادگير و هر يال خروجي يک عمل است. گراف تصادفي نقش محيط تصادفي را براي LA ايفا مي کند. بازخورد بين محيط و DLA مانند بازخورد LA مي باشد و در شکل (1) نشان داده شده است.

    image001.gif

    شکل 1: چرخه بازخورد اتوماتاي يادگير توزيع شده و محيط

    خروجي DLA دنباله اي از عمل مي باشد که يک مسير را در گراف تصادفي مشخص مي نمايد. محيط پاسخ خود را با توجه به طول مسير معين مي نمايد. با توجه به اينکه طول مسير قابل قبول و يا قابل قبول نباشد, باعث مي شود به اعمال انتخاب شده پاداش و يا جريمه تعلق بگيرد.
    در اينجا يک توضيح کلي بر مبناي الگوريتم ارائه شده در [2] برروي گراف هاي تصادفي خواهيم داد. در گام اول LA منبع يک عمل را با توجه به بر دار احتمال خودش انتخاب مي کند. اين عمل باعث مي شود يک LA ديگر را فعال کند و آن نيز با توجه به بردار احتمالش يک عمل را انتخاب مي کند. اين پروسه تا هنگامي که مقصد انتخاب شود يا ديگر نتوان ادامه داد يا تعداد گره هاي انتخاب شده از تعداد گره هاي گراف بيشتر شود ادامه مي يابد.
    پس از اينکه گره مقصد انتخاب شود طول مسير محاسبه مي شود با متغيري به نام حدآستانه پويا[1] مقايسه مي گردد. چنانچه طول مسير کمتر يا برابر حدآستانه پويا باشد پاداش و اگر بيشتر باشد ويا به گره مقصد نرسد جريمه مي گردد. پاداش و جريمه در اين الگوريتم مطابق با الگوريتم يادگيري LI-R است.
    پروسه رفتن از LA منبع تا LA مقصد تا هنگامي که شرايط پاياني فرا رسد ادامه پيدا مي کند که در اين لحظه مسير انتخاب شده کمترين طول انتظاري را دارد. حدآستانه پويا توسط رابطه زير تعيين مي شود:
    [IMG]
    ( ‏4‑1)


    li طول مسير در تکرار iام مي باشد. الگوريتم زماني پايان مي يابد که احتمال انتخاب يک مسير از يک حدي بيشتر شود. شبه کد اراه شده [2] در الگوريتم (1) نشان داده شده است:
    image003.gif

    الگوريتم 1

    بردار احتمال LAj با pj = (pj1, pj2, …, pjn) نشان داده مي شود. pim احتمال انتخاب عمل αm که يک يال خروجي از گره j به گره m مي باشد. متغير pathLen, pathCost به ترتيب طول و هزينه مسير مي باشد که در آرايه path ذخيره مي گردد. متغير path[k] , kامين گره در مسير توليد شده مي باشد. در الگوريتم (1) جمله node.getAdjNode() يک عمل از LAnode با توجه به بردار احتمال pnode انتخاب مي کند. جمله node ← nextNode گره LAnextNode را فعال مي کند. اثبات همگرايي الگوريتم در [2] آمده است.


    [1] dynamic threshold
    Ghobadi likes this.
    لطفاً انجمن را به دوستان خود معرفی نمایید تا محیطی پویا تر داشته باشیم.
  2. مشاوره، آموزش و پیاده سازی پروژه های شبکه های موردی، شبکه حسگر بی سیم و انواع شبکه های کامپیوتری . برای کسب اطلاعات بیشتر با شماره 08138270182 تماس بگیرید. .

به اشتراک بگذارید