آموزش با نظارت
در این شیوه آموزش ورودی‌های شبکه و خروجی‌های متناظر با آنها از قبل مشخص می‌باشند. در حین آموزش ورودی به شبکه عصبی اعمال می‌شود و شبکه در پاسخ به آن ورودی محرک پاسخ خروجی را نتیجه می‌دهد. این خروجی با خروجی مطلوب که اصطلاحاً خروجی هدف گفته می‌شود مقایسه می‌گردد. حال اگر خروجی واقعی با خروجی مطلوب مغایرت داشته باشد شبکه یک سیگنال خطا تولید می‌کند که از این سیگنال خطا برای میزان تغییری که باید بر وزنه‌های سیناپس اعمال شود استفاده می‌گردد. به عبارت دیگر خطا را کاهش می‌دهیم و در صورت امکان آن را به صفر می‌رسانیم. این روند حداقل نمودن خطا به یک مدار ویژه به نام معلم یا ناظر نیاز دارد که عمل مقایسه خروجی واقعی و خروجی مطلوب را انجام می‌دهد و شبکه را با توجه به این میزان سیگنال خطا را تعدیل می کند، تا اینکه آموزش لازم را ببیند. به همین دلیل به این شیوه آموزش، آموزش با نظارت گفته می‌شود ]۲۵[.
دانلود پایان نامه
اصطلاح معلم یا سرپرست از مشاهدات بیولوژیکی استخراج شده است. برای مثال هنگامی که می‌خواهیم یک زبان را یاد بگیریم. ابتدا از معلم شیوه تلفظ یک کلمه را می‌شنویم. این تلفظ در بانک‌های حافظه مغزمان ذخیره می‌شود. بعد سعی می‌کنیم که آن کلمه را به همان شکل تلفظ کنیم هنگامی که صدای خود ( خروجی واقعی) را می‌شنویم آن را با صدای ذخیره شده (خروجی مطلوب) را مقایسه می‌کنیم و خطا را ثبت می‌کنیم. اگر خطا زیاد باشد دوباره سعی می‌کنیم تا میزان خطا به حد قابل ملاحظه‌ای کوچک شود و آنگاه تکرار را متوقف می‌کنیم.
در شبکه‌های عصبی مصنوعی، میزان محاسبات لازم برای حداقل نمودن خطا به شیوه آموزش، یا اصطلاحاً الگوریتم آموزش به کار گرفته شده بستگی دارد که این الگوریتم روش کاملاً ریاضی مشتق شده از تکنیک‌های بهینه سازی است. در حال حاضر روش‌های دیگری که کارآمدتر از روش‌های ریاضی هستند وجود دارد که برای تعدیل وزنه به کار می‌روند مانند الگوریتم ژنتیک.
آموزش بدون نظارت
در این روش برخلاف شیوه آموزش با نظارت، نیاز به معلم نیست یعنی خروجی هدف وجود ندارد. در خلال آموزش، شبکه الگوهای آموزشی خود را از طریق ورودی‌هایش دریافت می‌کند و به شکل دلخواه آنها را تحت طبقه‌های مختلفی دسته‌بندی می‌کند. هنگامی که شبکه یک ورودی را دریافت می‌کند پاسخی در خروجی ظاهر می‌کند که نشان دهنده طبقه‌ای است که آن ورودی بدان تعلق دارد اگر طبقه‌ای برای این ورودی یافت نشد آنگاه یک طبقه جدید تشکیل می‌شود. برای مثال شخصی را در نظر بگیریم که به او مجموعه‌ای از اشیاء نشان داده می‌شود. از او در خواست می‌گردد که آنها را بر اساس یک یا چند ویژگی که متمایز کننده آنها از همدیگر است طبقه‌بندی کند. هنگامی که این کار را انجام داد در صورتیکه یک شیء به هیچ کدام از این طبقه‌ها تعلق نداشت، آنگاه طبقه جدیدی به وجود می‌آید ]۲۵[.
اگر چه آموزش بدون نظارت، نیازی به معلم ندارد اما در عوض برای طبقه‌بندی الگوهای ورودی نیاز به معیارهایی دارد که معین کند که طبقه‌ها بر چه اساس تشکیل می‌شوند. طبقه‌بندی می‌تواند بر اساس رنگ، شکل یا مواد تشکیل دهنده اشیاء یا هر چیز دیگری باشد. بنابراین اگر معیاری برای طبقه بندی وجود نداشت در مورد موفقیت یا عدم موفقیت دسته‌بندی نمی‌توان نظر داد. در برخی از آزمایش‌ها انتخاب معیار در طراحی شبکه عصبی در نظر گرفته می‌شود. یعنی به گونه‌ای طراحی می شوند که بتوانند بر اساس نوع الگوهای ورودی مشخصه‌ های معین را استخراج نمایند.
آموزش تقویت یافته
در آموزش تقویت یافته[۱۴۶] مانند روش آموزش با واسطه نیاز به یک معلم می‌باشد. اما در این روش معلم تعیین نمی‌کند که خروجی واقعی چه اندازه با خروجی مطلوب تفاوت دارد بلکه مشخص می‌کند که خروجی واقعی همان خروجی مطلوب است یا خیر، در حین آموزش، محرک ورودی به شبکه اعمال شده، پاسخ خروجی محاسبه می‌شود در این جا معلم، تعیین کننده خروجی هدف نمی‌باشد، بلکه نشانه قبول یا رد می‌باشد. نشانه قبول بیان می‌کند که خروجی واقعی همان خروجی مطلوب است و نشانه رد، بیانگر مغایرت این دو است، بنابراین سیگنال خطای تولیدی در این روش باینری است. اگر سیگنال خطا وضعیت عدم تطابق در خروجی (واقعی و مطلوب) را نشان دهد. آنگاه شبکه، پارامترهای خود را به طور مکرر تعدیل می نماید تا به خروجی مطلوب برسد ]۲۶[.
در این روش، نشان دهنده‌ای وجود ندارد که معین کند پاسخ خروجی ما در جهت صحیح در حال حرکت است یا اینکه پاسخ خروجی به چه میزانی به پاسخ مطلوب نزدیک است. بنابراین در این شیوه، تنظیم پارامترهای شبکه نسبت به آموزش با نظارت متفاوت است.
آموزش رقابتی
آموزش رقابتی شکل دیگری از آموزش با نظارت است که به علت ساختار و عملکرد مشخص، این شیوه نسبت به روش‌های دیگر متفاوت است. شبکه‌هایی که از این شیوه آموزش استفاده می‌کنند در لایه خروجی از چند نرون تشکیل یافته‌اند هنگامی که یک ورودی به شبکه اعمال می‌شود تمام نرون‌های خروجی با یکدیگر برای رسیدن به پاسخ مطلوب رقابت می‌کنند تا یک نرون برنده شود و برای ورودی‌های دیگر، نرون دیگری از لایه خروجی برنده می‌شود در این شیوه آموزش، هر نرون خروجی برای پاسخ به ورودی‌های متفاوتی آموزش داده می‌شود. همچنین آموزش رقابتی با عنوان فرایند تشخیص تصادفی معرفی می‌گردد. برای آموزش یک شبکه عصبی مصنوعی که جزء یک سیستم بزرگ می‌باشد فرایند تشخیص تصادفی مناسب نیست و باید از شیوه آموزش تقویت‌یافته، استفاده شود معمولاً از این شیوه آموزش برای آموزش گروهی از مردم جهت کارهای خاص استفاده می‌شود به نحوی که هر فرد گروه برای یک کار مناسب، در زمان مناسب و در جای مناسب آموزش داده می‌شود ]۲۳[.
برنامه و آموزش شبکه‌های عصبی مصنوعی به روش پس انتشار خطا
توصیف ریاضی تعدیل وزنه‌های wij که در حین آموزش از شبکه‌های عصبی مصنوعی استنتاج می‌شود الگوریتم آموزش را تشکیل می‌دهد و حالت ماندگار مقادیر این وزنه‌ها، نشان دهنده برنامه ذخیره شده در شبکه عصبی مصنوعی می‌باشد ]۲۳[.
منظور از معلم یا سرپرست، وجود یک مدار اضافه جهت مقایسه خروجی مطلوب و خروجی واقعی است البته خروجی مطلوب از قبل مشخص بوده و وقتی که الگوی محرک به ورودی شبکه اعمال می شود خروجی واقعی بدست آمده از شبکه عصبی مصنوعی و خروجی مطلوب به یک مقایسه کننده وارد می‌شود و شبکه براساس الگوریتم آموزش یک سیگنال خطا تولید می‌کند. سپس جهت کاهش خطا وزنه‌های wij تنظیم می‌شود. این روند به صورت تکراری برای رسیدن به حداقل درجه خطا ادامه خواهد داشت. برای پیاده‌سازی شیوه آموزش با نظارت از روش‌های متفاوتی استفاده می‌شود که متداول‌ترین آنها بر مبنای تعیین معلم یا سرپرست توسط ریز‌پردازنده‌ها می‌باشد. با توجه به اینکه شیوه آموزش با نظارت یک فرایند ترتیبی همراه با تکرار می‌باشد لذا این روش بسیار مناسب است ]۲۳[.
=wij=[wi1,wi2…,win] بردار وزن برای ورودی‌های نرون i
=xij=[xi1,xi2…,xin] بردار ورودی برای نرون i
=oi=f خروجی ازنرون i بعد از تابع تبدیل غیرخطی
Ti سیگنال معلم یا هدف که در حین آموزش، سیگنال خطا را تولید می‌کند.
=Ei=Ti-Oi خطای خروجی که در حین آموزش استفاده می‌شود.
بنابراین آموزش نرون i با معادله زیر بیان می‌گردد:
Wij(K+1)= Wij(K)+µEi(O(K),T(K).Xi(K)
دراین رابطه µ برابر مقدار مثبت و کوچکی است که سرعت آموزش (ضریب هوشی یا نرخ یادگیری) نامیده می‌شود بنابراین قانون آموزش می‌تواند به صورت زیر نشان داده می‌شود.
Wij(K+1)= Wij(K)+ correction term
در این جا k شماره پله تکرار می باشد. آموزش زمانی کامل خواهد شد که عبارت اصلاحی (Correction Term) برابر صفر شود.
قدرت تفکیک شبکه‌های عصبی مصنوعی
شبکه‌های عصبی مصنوعی به منظور تفکیک بین الگوهای ورودی، آموزش می‌بینند تا بتوانند به هر ورودی پاسخ مطلوب متناظر آن را در خروجی ارائه دهند. در کاربردهای متعددی شبکه‌های عصبی مصنوعی موظف هستند که علاوه بر تشخیص الگوی ورودی، طبقه یاگروهی را که الگو به آن تعلق دارد را معین کنند. تعداد الگوهایی را که یک شبکه عصبی مصنوعی می‌تواند از یکدیگر تشخیص بدهد قدرت تفکیک آن شبکه نامیده می‌شود. برتری شبکه‌های عصبی مصنوعی نسبت به روش‌های متداول زمانی نمایان خواهد شد که تعداد الگوهای موجود برای طبقه‌بندی زیاد باشد. بنابراین ازاین ویژگی شبکه‌های عصبی مصنوعی در کاربرد شناسایی الگو استفاده می‌شود ]۲۶[.
شبکه‌های عصبی خودسازمان‌ده
درشبکه ی خودسازمان ده، از روش یادگیری رقابتی برای آموزش استفاده می شود و مبتنی بر مشخصه های خاصی از مغز انسان توسعه یافته است. سلولها در مغز انسان در نواحی مختلف طوری سازمان دهی شده اند که در نواحی حسی مختلف، با نقشه های محاسباتی مرتب و معنی دار ارائه می شوند. برای نمونه، ورودیهای حسی لامسه، شنوائی و … با یک ترتیب هندسی معنی دار به نواحی مختلف مرتبط هستند.
در یک شبکه ی خود سازمان ده که با SOM[147] یا برخی مواقع به صورت SOFM(Self Organization Feature Map) نشان داده می شود، واحد های پردازش گر در گره های یک شبکه ی یک بعدی، دو بعدی یا بیشتر قرار داده می شوند. واحد ها در یک فرایند یادگیری رقابتی نسبت به الگوهای ورودی منظم می شوند. محل واحدهای تنظیم شده در شبکه به گونه ای نظم می یابد که برای ویژگیهای ورودی، یک دستگاه مختصات معنی دار روی شبکه ایجاد شود. لذا یک نقشه ی خود سازمان ده، یک نقشه ی توپوگرافیک از الگوهای ورودی را تشکیل می دهد که در آن، محل قرار گرفتن واحدها، متناظر ویژگیهای ذاتی الگوهای ورودی است ]۲۷[.
یادگیری رقابتی که در این قیبل شبکه ها بکار گرفته می شود بدین صورت است که در هر قدم یادگیری، واحدها برای فعال شدن با یکدیگر به رقابت می پردازند، در پایان یک مرحله رقابت تنها یک واحد برنده می شود، که وزنهای آن نسبت به وزنهای سایر واحدها به شکل متفاوتی تغییر داده می شود. این نوع از یادگیری را یادگیری بی نظارت (Unsupervised) می نامند. شبکه های خودسازمان ده به لحاظ ساختاری به چند دسته تقسیم می شوند که در ادامه با هر یک از آنها به صورت مختصری آشنا می‌شویم.
شبکه های خودسازمانده دارای وزن ثابت
در این دسته از شبکه ها وزن اتصالات بر اساس اهداف مورد نظر در طراحی شبکه در حین طراحی مشخص می شود و مقدار آنها تغییر نمی یابد، یا به عبارت دیگر نیاز به مرحله ی آموزش ندارند در ادامه جهت آشنایی بیشتر با این گونه از شبکه ها با چند نمونه ی عملی آنها آشنا می شویم ]۲۷[.
شبکه ی ماکس نت[۱۴۸]
شبکه فوق در سال ۱۹۸۷ توسط لیپ‌من[۱۴۹] معرفی گردید. هدف استفاده از آن تعیین بزرگترین ورودی به شبکه است یعنی در این شبکه پس از طی چند مرحله از طریق خروجی ها می توان ورودی بزرگتر را تشخیص داد، از این شبکه به عنوان زیر شبکه نیز می توان در ترکیب با شبکه های دیگر استفاده نمود ]۱[.

شکل ‏۲‑۱۷- مدل ساختاری شبکه ی MaxNet ]1[
ساختارشبکه: در این شبکه، n واحد ورودی دارای اتصالات کامل و متقارن با وزن های ثابت هستند. تابع فعالیت آنها به صورت ذیل می باشد:

الگوریتم کار شبکه:
۰- مقادیر اولیه را مشخص می کنیم، مقداری برای ε در فاصله ی  اختیار می کنیم، مقادیر اولیه ی فعالیتها(yها) را برابر ورودی ها قرار می دهیم، وزن ها را به فرم ذیل تعیین می کنیم:

۱- تا زمانیکه شرط خاتمه ارضاء نشده است قدمهای ۲ الی ۴ را تکرار می کنیم
۲- بهنگام سازی مقادیر فعالیت
, j=1,…,m
۳- مقادیر فعالیت ذخیره شود:
, j=1,…,m yjold=yjnew
۴- اگر بیش از یک واحد مقدار فعالیت غیر صفر دارد الگوریتم ادامه می یابد، در غیر این صورت الگوریتم خاتمه می یابد.
شبکه ی کلاه مکزیکی[۱۵۰]
این شبکه در سال ۱۹۸۹ توسط کوهونن ارائه شد. هدف از بکار بردن این شبکه، افزایش تمایز بین ورودی ها می باشد، در این شبکه هر واحد با وزن های مثبت به همسایه های همکار و با وزن های منفی به همسایه های رقیب واقع در لایه خود وصل می شود ]۱[.

شکل ‏۲‑۱۸- مدل ساختاری شبکه ی کلاه مکزیکی که اتصالات فقط بری واحد i ام رسم شده ]۱[
ساختار شبکه :در شبکه ی فوق هر نرون i با R1 نرون دیگر که در هر دو طرف نرون i به صورت متقارن قرار دارند تشکیل همسایگی همکار می دهد و با R2-R1 نرون متقارن در دو طرف خود همسایگی رقیب تشکیل می دهد. R1 را همسایگی همکار و R2 را کل همسایگی متصل می نامند. برای نمونه در شکل فوق یک شبکه ی کلاه مکزیکی با R1=1 و R2=2 نشان داده شده است.
تخصیص وزن ها نیز بدین گونه است که در همسایگی همکار وزن ها مقادیر مثبت دارند ولی در همسایگی رقیب وزن ها مقادیر منفی دارا می باشند، در ضمن وزن های متقارن متصل به هر واحد i با هم مساوی هستند به عبارت دیگر وزن اتصال واحد i+1 و i-1 به واحد i با هم برابر هستند. در ذیل به جزئیات تخصیص وزن ها و توابع فعالیت اشاره می شود.
وزن اتصالات وارد به واحد i که به فرم wi+k,i می باشد بدین گونه است که:
الف) برای واحدهای همکار |k|≤R1 ، وزن های مثبت
ب) برای واحدهای رقیب R1≤|k|≤R2 ،وزن های منفی
تابع فعالیت هر واحد در زمان t به فرم ذیل است:

موضوعات: بدون موضوع
[جمعه 1400-07-23] [ 11:40:00 ق.ظ ]