برنامه نویسی شبکه های عصبی خودسازمانده
ساخت شبکه عصبی در پایتون Neural Network با Python به زبان ساده فرادرس مجله
این الگوریتم ، مبتنی بر مفهوم انتخاب طبیعی ( natural selection ) یا بقای برازنده ترین ها در زیست شناسی می باشد. مفهوم انتخاب طبیعی بیان می کند که برای یک جمعیت معین، شرایط محیطی موجب افزایش برازنده ترین افراد در آن جمعیت می شود. برای ارزیابی مناسب ترین افراد در یک جمعیت مشخص ، می توانید یک تابع اعمال کنید. پروژه شناسایی اعداد دستنویس دیتاست MNIST یک پروژه استاندارد در این زمینه است. ضمناً تشخیص یا Detection با شناسایی یا Recognition متفاوت است و این را در دوره خواهید فهمید. ما می توانیم یک شبکه SOM را آموزش دهیم و به راحتی تجسم کنیم که چگونه رنگ های مشابه مختلف در سلول های همسایه چیده می شوند.
شبکه های عصبی مصنوعی چند لایه، معمولا با استفاده از مدلسازی یک نمایش پیچیده روی نمایشهای سادهتر از دادهها، رفتار توابع و مدلسازی یک «تابع واقعی» (True Function) مبتنی بر داده را یاد میگیرند. منظور از تابع واقعی، مدل تابعی است که میتواند دادههای مسئله را به بهترین شکل ممکن دستهبندی کند. ترکیب شبکه عصبی با الگوریتم های مختلف برای یافتن مقدار بهینه وزن یالها و بایاسها به عنوان یک چالش و روشی نوآورانه در اکثر مقالات و تحقیقات مورد استفاده قرار می گیرد. اینکه کدام الگوریتم روشی بهتری نسبت الگوریتم های دیگر است بستگی زیادی به تنظیمات پارامترهای شبکه عصبی و الگوریتم ترکیبی دارد. از اینرو بهتر است روشهای مختلف برای مقایسه بایستی مورد تست و آزمون قرار بگیرد.
همچنین از شما مخاطبین عزیز سایت متلب پروژه دعوت می کنم که برای پروژه شبکه عصبی خود آموزش های ما را دنبال نمایید. مثال بالا بسیار جالب است زیرا نشان می دهد که چگونه شبکه به طور خودکار رنگ های RGB را مرتب می کند به طوری که سایه های مختلف یک رنگ در شبکه SOM به هم نزدیک می شوند. می بینیم که SOM در حدود 10 دوره همگرا می شود و تغییرات کمتری در دوره های بعدی وجود دارد. نکته مهمی که باید به آن توجه داشت این است که فاصله اقلیدسی تنها روش ممکن برای انتخاب BMU نیست. یک اندازهگیری فاصله جایگزین یا یک متریک شباهت نیز میتواند برای تعیین BMU استفاده شود، و انتخاب آن عمدتاً بستگی دارد روی داده ها و مدلی که به طور خاص می سازید.
در این روش به Xi ها نویز دارای توزیع ثابت با دامنه قوی اضافه می شود، به طوری که در ابتدا نویز بر Xi ها غالب باشد با گذشت زمان نویز تضعیف می شود و یادگیری انجام می شود. واحدی که وزن های آن اصلا اصلاح نشود در این شبکه یک واحد مرده نامیده می شود. البته چندین راه برای حل مشکل پیشنهاد شده است که در ادامه با برخی از آنها آشنا می شویم. یک لایه کوهونن آرایه ای از نورون ها است به صورت یک بعدی، دو بعدی یا بیشتر است که نمونه ای از آن را در شکل فوق مشاهده می نمائید. اما این پیشبینی چقدر اشتباه بوده؟ در پست بعدی راهی برای اندازهگیری میزان اشتباه و آموزش مدل پیدا میکنیم. مجله شهاب یک مرجع علمی در حوزه فناوری پلاک خوان، دوربین پلاک خوان، فناوری تشخیص چهره و هوش مصنوعی است.
در یک شبکه عصبی خود سازمان ده که با SOM Self Organization Map یا برخی مواقع به صورت SOFM Self Organization Feature Map نشان داده می شود، واحد های پردازش گر در گره های یک شبکه ی یک بعدی، دو بعدی یا بیشتر قرار داده می شوند. واحد ها در یک فرآیند یادگیری رقابتی نسبت به الگوهای ورودی منظم می شوند. محل واحدهای تنظیم شده در شبکه به گونه ای نظم می یابد که برای ویژگیهای ورودی، یک دستگاه مختصات معنی دار روی شبکه ایجاد شود. لذا یک نقشه ی خود سازمان ده، یک نقشه ی توپوگرافیک از الگوهای ورودی را تشکیل می دهد که در آن، محل قرار گرفتن واحدها، متناظر ویژگیهای ذاتی الگوهای ورودی است. آ نقشه خودسازماندهی اولین بار توسط Teuvo Kohonen در سال 1982 و گاهی اوقات به عنوان a نیز شناخته می شود نقشه کوهونن.
علاوه بر این، این یک مدل مقیاس پذیر است، یک سرگرمی و یک ابزار یادگیری برای هر دوی شما و خودم، تا بتوانیم بیشتر راجع به یادگیری ماشین، شبکه های عصبی و هوش مصنوعی، یاد بگیریم. در این بخش، با بخشهای مختلف الگوریتم یادگیری در یک شبکه عصبی مصنوعی چند لایه آشنا خواهید شد. در بخش فیلم و دوره آموزشی به مباحث مختلفی ازجمله آموزش برنامهنویسی، الگوریتم بهینهسازی (الگوریتم ژنتیک، الگوریتم PSO، الگوریتم گرگ خاکستری، الگوریتم MFO و سایر موارد)، آموزش شبکه، صنایع غذایی و آموزشهای پایه پرداخته میشود. این قانون اجازه میدهد تا گرادیان تابع هزینه نسبت به هر وزن و بایاس در شبکه محاسبه شود. فرض کنید تابع هزینه \(E\) به خروجی یک نرون بستگی دارد و خروجی نرون نیز تابعی از وزنها و بایاسهاست. برای بهروزرسانی وزنها، باید مشتق جزئی تابع هزینه نسبت به هر وزن را محاسبه کنیم.
این الگوریتم با استفاده از روش گرادیان کاهشی (Gradient Descent)، وزنهای شبکه را بهینه میکند تا خطای خروجی کاهش یابد. انتشار معکوس در فرآیند یادگیری شبکه عصبی نقشی حیاتی دارد و به شبکه امکان میدهد از دادههای ورودی خود یاد بگیرد و خروجی دقیقتری تولید کند. بهترین راه برای درک مفهوم و چگونگی عملکرد «شبکه عصبی» (Neural Network)، ساخت آن است. در این مطلب، روش ساخت یک شبکه عصبی با بهرهگیری از «زبان برنامهنویسی پایتون» (Python Programming Language) آموزش داده شده است. در این مقاله سعی داشتهایم بهطور جامع به ساخت شبکه عصبی در پایتون بپردازیم.
ما شبکه عصبی خود را با ۶۰ هزار داده امنیست تعلیم دادیم و سپس با ۱۰ هزار داده دیگر امنیست آزمایش کردیم. عملکرد (Performance) شبکه در شناسایی تصاویر به بیش از ۹۴ درصد رسید. در حالی که SOM ها دیگر در جامعه یادگیری ماشینی محبوب نیستند، اما مدل خوبی برای خلاصه سازی و تجسم داده ها هستند. که در آن \(d((i,j),(g,h))\) فاصله مختصات \((i,j)\) یک سلول از مختصات BMU \((g,h)\) است. معمولاً فاصله اقلیدسی برای محاسبه فاصله استفاده می شود، با این حال، هر متریک فاصله یا تشابه دیگری را می توان استفاده کرد. علاوه بر دستور newc که در بالا مختصری مورد بررسی قرار گرفتن دستور دیگری نیز وجود دارد که شبکه ی SOM دیگری را با قابلیهای بیشتر ایجاد می کند که در ادامه به بررسی آن می پردازیم.
همچنین ممکن است یک بردار وزن خاص در یک ناحیه همیشه به همه ی X های ورودی در آن ناحیه نزدیکتر باشد و لذا همیشه آن بردار برنده شود و در این حالت وزنهای همه ی واحدها اصلاح نخواهند شد. در فاز یادگیری هر یک از واحدها فاصله ی بردار ورودی X تا وزن های خود را به صورت زیر محاسبه می کنند. در سال 1976 استفن گراسبرگ ایده مالزبرگ را رد کرد و قانونی که در این بخش مطرح می شود را ارائه نمود. اما در اواخر دهه ی 70 کوهونن به این نتیجه ی مهم رسید که هدف این قانون یادگیری بایستی ساختن یک مجموعه بردار wi که ارائه های هم احتمال یک تابع چگالی احتمال ثابت r را تشکیل می دهند، باشند. هدف از بکار بردن این شبکه، افزایش تمایز بین ورودی ها می باشد، در این شبکه هر واحد با وزن های مثبت به همسایه های همکار و با وزن های منفی به همسایه های رقیب واقع در لایه خود وصل می شود. نزدیکترین نورون به بردار ورودی تعیین و بهعنوان نورون برنده انتخاب میشود.
از نظر تئوری، تمام سلول های SOM به روز می شوند روی نمونه آموزشی بعدی با این حال، ما قبلا نشان دادیم که این تغییر برای سلول هایی که از BMU دور هستند ناچیز است. از این رو، میتوانیم کد را با تغییر تنها سلولهای موجود در مجاورت کوچک BMU کارآمدتر کنیم. را step پارامتر حداکثر تعداد سلول ها را مشخص می کند روی چپ، راست، بالا و پایین برای تغییر هنگام بهروزرسانی وزنهها. شبکه های عصبی مصنوعی چند لایه، با داشتن خروجی متناظر با اولین لایه نهان، به راحتی میتوانند «گوشهها» (Corners) و «کانتورهای» (Contours) موجود در تصویر را تشخیص دهند. همچنین، این شبکههای عصبی، با داشتن خروجی متناظر با لایه نهان دوم، بخشهای خاصی از یک تصویر نظیر بینی یک انسان را شناسایی میکنند. در نهایت، و با در کنار هم قرار دادن تمامی مدلهای نمایشی تولید شده در لایههای نهان و تولید یک مدل نمایشی پیچیده، شبکه های عصبی مصنوعی قادر خواهند بود تا نوع اشیاء موجود در تصویر را نیز شناسایی کنند.
در دنیای امروز، دادههای ماهوارهای نقش حیاتی در تحلیل و مدیریت محیطزیست، کشاورزی، شهرسازی، و بسیاری از حوزههای دیگر ایفا میکنند. از سوی دیگر، شبکههای عصبی ابزاری قدرتمند برای پردازش و تحلیل این دادهها ارائه میدهند. اما چالش اصلی، انتقال و آمادهسازی این دادهها برای مدلسازی و تحلیل است. محصول آموزشی ما، ترکیبی از انتقال دادههای ماهوارهای از Google Earth Engine (GEE) و آموزش شبکههای عصبی در محیط Google Colab، راهکاری جامع برای این چالشها ارائه میدهد. همانطور که شبکه های عصبی همچنان به جنبه های مختلف چشم انداز دیجیتال ما نفوذ میکنند، نقش زبان های برنامه نویسی در شکل دادن به توسعه آنها به طور فزاینده ای قابل توجه میشود.
این یک نوع خاص از an است شبکه های عصبی مصنوعی، که نقشه ای از داده های آموزشی می سازد. نقشه به طور کلی یک شبکه مستطیلی دوبعدی از وزن ها است اما می تواند به یک مدل سه بعدی یا ابعاد بالاتر گسترش یابد. ساختارهای شبکه ای دیگر مانند شبکه های شش ضلعی نیز امکان پذیر است. در ادامه روشی که توسط دسینو برای حل مشکل آموزش شبکه مطرح شده است اشاره می شود. یک مکانیزم وجدان در شبکه در نظر می گیریم در این حال سابقه برنده شدن واحدها نگهداشته می شود و اگر واحدی بیش از 1/m دفعه برنده شود برای مدتی از رقابت خارج می شود.
بد نیست بدانید که شبکه عصبی SOM میتواند در سامانههای توصیهگر محتوا نیز مفید باشد. با استفاده از SOM، میتوانید الگوهای مشابه در میان دادههای متنی را شناسایی کنید و بر اساس این الگوها، محتوای مشابه را به کاربران توصیه کنید. به عنوان مثال، در یک سامانه توصیهگر کتاب، با استفاده از شبکه عصبی SOM میتوانید کتابهای مشابه را بر اساس موضوع، سبک نوشتاری، واژگان و غیره تشخیص داده و به کاربران پیشنهاد دهید. شبکه عصبی SOM میتواند در تحلیل ارتباطات اجتماعی بر اساس دادههای متنی مفید باشد. با اعمال SOM بر روی پستها، نظرات و متنهای مربوط به رسانههای اجتماعی، میتوانید الگوهای ارتباطی بین افراد را شناسایی کنید. این راهکار به شما امکان میدهد موضوعات جذاب و جدید در جامعه را شناسایی کنید و ارتباطات اجتماعی را درک کنید.
همچنین تحقیقات زیادی در زمینه ریاضیات ، زیست شناسی اعصاب و علوم کامپیوتر انجام شده تا علم شبکه های عصبی مصنوعی به این تکامل برسد. الگوریتمهای فرا ابتکاری (متاهیوریستیک) در حل مسائل بهینهسازی با فضای جستجوی بزرگ و پیچیده به کار میروند. ترکیب شبکههای عصبی با این الگوریتمها به بهبود عملکرد آنها در یادگیری و کاهش زمان محاسباتی کمک میکند. اولی دادن تعدادی تصویر شخصی از اعداد دستنویس و محک قدرت پیشبینی شبکه بود. هر دو مورد بینش ما را در مورد شبکههای عصبی مصنوعی و شیوه کار آنها بالا برد.
$$(n \times h) + (h \times o)$$و تعداد بایاسها نیز برابر با تعداد نرونها در لایههای پنهان و خروجی است. © تمام حقوق این سایت متعلق به آکادمی آنلاین مهندسی پزشکی و هوش مصنوعی می باشد. تمامي كالاها و خدمات اين سایت، حسب مورد، داراي مجوزهاي لازم از مراجع مربوطه ميباشند و فعاليتهاي اين سايت تابع قوانين و مقررات جمهوري اسلامي ايران است. بیایید اجرا کنیم train_SOM() تابع روی یک ماتریس داده آموزشی پر از رنگ های تصادفی RGB. با این حال، برای مجموعه داده های شبه خطی، نتیجه غیرقابل قطعیت است.
کاری که شما باید انجام دهید این است که یک عملیات پیدا کنید که گاهی باعث همبستگی لایههای میانی با ورودیها شود و گاهی نیز این همبستگی را نشان ندهد. در بین این الگوریتم های شبکه عصبی ، الگوریتم ژنتیک رایج ترین الگوریتم تکاملی است. در زمینه الگوریتم های تکاملی ، بازترکیبی را به عنوان یک عملگر مطرح می کنند. سپس آن را برای دو یا چند کاندید که به عنوان والدین شناخته می شوند، اعمال کرده و منجر به ایجاد یک کاندیدای جدید بنام فرزند می شوند. جهش را روی یک کاندید واحد اعمال کرده تا منجر به یک کاندید جدید شود.
ANNs معماری های متنوعی را از شبکه های ساده feedforward گرفته تا شبکه های پیچیده تکراری و پیچیده نشان میدهد. هر معماری به اهداف خاصی خدمت میکند، با شبکه های feedforward که وظایف ساده را انجام میدهند، شبکه های مکرر پردازش داده های متوالی و شبکه های پیچیده در وظایف مربوط به تصویر برجسته هستند. مراحل بهروزرسانی سرعت و موقعیت ذرات تا زمانی که به یک معیار همگرایی برسد (مثل تعداد تکرارها یا رسیدن به خطای مطلوب) تکرار میشود. در نتیجه، هر کروموزوم یک بردار با 13 مقدار است که هر مقدار نشاندهنده یک وزن یا بایاس است. تیم آکادمی onlineBME در تلاش است که بستر آموزشی مناسب و تخصصی برای دانشجویان فراهم کند تا دانشجویان با دید و تخصص بهتری پروژهها و پایان نامههای خود را انجام دهند. ماهنامه شبکه را از کجا تهیه کنیم؟ماهنامه شبکه را میتوانید از کتابخانههای عمومی سراسر کشور و نیز از دکههای روزنامهفروشی تهیه نمائید.
فعالیت این مجموعه، در قالب ارائه دورههای آموزشی، فیلم آموزش، سورس کد و پاورپوینت آماده به عنوان ابزارهای آموزشی و کمک آموزشی میباشد. برای جلوگیری از همگرا شدن الگوریتم ژنتیک به یک نقطه محلی و حفظ تنوع در جمعیت، برخی از کروموزومها به صورت تصادفی تغییر میکنند. در فرآیند جهش، یک یا چند وزن یا بایاس در کروموزوم تغییر داده میشوند. به عنوان مثال، ممکن است یک وزن به طور تصادفی تغییر کند تا یک مقدار کوچک به آن اضافه یا کم شود. در این الگوریتم، هدف کاهش مقدار تابع هزینه (Cost Function) است که تفاوت میان خروجی واقعی و خروجی پیشبینیشده را نشان میدهد.
این دو کتابخانه برای کار با آرایهها، تولید داده، آموزش مدل و رسم نمودار استفاده خواهند شد. به دلیل در دسترس نبودن و پیچیدگی آن، همچنان اطلاعات آشکار نشده زیادی در این زمینه وجود دارد، احتمالاً بهترین موضوع برای شروع تحقیق در این زمینه، علوم اعصاب(Purves) و علوم اعصاب شناختی(Gazzaniga) می باشد. بسیار خب، حال که در مسیری درست حرکت می کنیم، آخرین تکه ای که برای ترکیب کردن لازم داریم، تکرار می باشد. شکل زیر محاسبات داخلی شبکهای که در حال ساخت آن هستید را نشان می دهد. از آنجایی که این عدد بزرگتر از ضرب داخلی قبلی است، پس نتیجه میگیریم input_vector و weights_2 بیشتر به یکدیگر شبیه هستند. ترکیب ۲ قانون ، مبادله برخی از متغیرها یا دسته های آن ها ، برای تولید ۲ قانون جدید است.
شما میتوانید ژن ها را به عنوان واحد هایی درون سلول ها که کنترل می کنند موجودات زنده ، چگونه خصوصیات والدین خود را به ارث ببرند، درنظر بگیرید. بنابراین ، هدف از الگوریتم های ژنتیک بازتولید مکانیسم های انتخاب طبیعی است. با انتخاب قوانینی که به بهترین وجه با پیش بینی سازگار باشد و با ترکیب شدن ( crossing ) و جهش یافتن ( mutating ) آن ها تا رسیدن به یک مدل پیشگویانه. MatLab و R در محیط های دانشگاهی و تحقیقاتی به دلیل پشتیبانی قوی از عملیات ماتریس و تجزیه و تحلیل آماری محبوبیت پیدا کردند. آنها محیطی را برای نمونه سازی و آزمایش فراهم کردند، که به محققان اجازه میدهد مدل های شبکه عصبی را کشف و تأیید کنند. اثربخشی Ann ها به توانایی آنها در یادگیری از داده ها از طریق فرایندی که به عنوان آموزش شناخته میشود، بستگی دارد.
تمام وزن های شبکه SOM را می توان به طور تصادفی مقداردهی اولیه کرد. وزنهای شبکه SOM همچنین میتوانند با نمونههای انتخابی تصادفی از مجموعه داده آموزشی مقداردهی اولیه شوند. هنگامی که یک مثال آموزشی وارد شبکه می شود، بهترین واحد تطبیق (BMU) مشخص می شود (برنده مسابقه). 0- مقادیر اولیه wi0 اختیار می شوند، پارامترهای همسایگی واحد برنده تعیین شود، نرخ یادگیری تعیین شود. در یک شبکه ی خود سازمان ده که با SOM(Self Organization Map) یا برخی مواقع به صورت SOFM(Self Organization Feature Map) نشان داده می شود، واحد های پردازش گر در گره های یک شبکه ی یک بعدی، دو بعدی یا بیشتر قرار داده می شوند.
این نکته را نیز باید به خاطر داشت که مقداردهی اولیه وزنها با تخصیص یک عدد تصادفی به هر وزن به وقوع خواهد پیوست. در ادامه روال فرآیند آموزش مورد استفاده در این مساله شبکه عصبی در پایتون بیان شده است. بهترین راه برای درک اینکه شبکههای عصبی چگونه کار میکنند، فراگیری این است که چگونه میتوان یک شبکه عصبی در پایتون را از پایه بدون استفاده از هرگونه کتابخانهای ساخت. در این مطلب، چگونگی ساخت یک شبکه عصبی با پایتون به بیان ساده ارائه میشود. شبکه عصبی SOM میتواند در تجزیه و تحلیل موضوع در دادههای متنی مفید باشد.
میتوانیم یک مجموعه داده دوبعدی به شکل دایره توخالی (دونات) ایجاد کنیم. در اینجا ابتدا تصویر منطقه هدف از Google Earth Engine (GEE) به Google Drive منتقل میشود. این دادهها شامل اطلاعات خام مورد نیاز برای پیشبینی و تولید نقشه خروجی هستند. این محصول برای محققان و متخصصانی که نیاز به تحلیل دادههای ماهوارهای دارند, مناسب است و رویکرد عملی و قابل استفاده برای پروژههای واقعی دارد. استفاده از بستر فراهم شده در این آموزش موجب صرفهجویی در زمان و ساده کردن روند طراحی پیشرفته در پروژه عملی است. مجموعه آموزشی پی استور، یکی از قدیمیترین وب سایتهای آموزشی ایران است که بیش از یک دهه از فعالیت آن سپری می شود.
در این بخش سورس شبیه سازی شبکه عصبی مصنوعی Backpropagation به زبان سی شارپ را برای شما آماده کرده ایم که در محیط نرم افزار Visual Studio و زبان برنامه نویسی سی شارپ نوشته شده است. در ادامه می توانید توضیحات، تصاویر و همچنین فیلمی از نحوه کارکرد پروژه را مشاهده کنید. چنین کاری به الگوریتم یادگیری شبکه عصبی اجازه میدهد تا مشخص کند که کدام نودها، مسئول تولید بیشترین خطا در عملکرد سیستم هستند و مقادیر پارامترها (به ویژه، پارامتر وزن) را بر این اساس تغییر دهد. روابط مشتقی که در ادامه آمده است، برای تولید توابع لازم جهت پیادهسازی الگوریتم پس انتشار مورد استفاده قرار میگیرند. یکی از چالشهایی که توسعه دهندگان در هنگام پیادهسازی شبکه های عصبی مصنوعی با آن دست و پنجه نرم میکنند، انتخاب تابع فعالسازی مناسب برای لایههای مختلف موجود در شبکه عصبی است. در این زمینه، راهکاری قطعی برای انتخاب بهترین تابع فعالسازی برای یک مسأله خاص وجود ندارد.
در طول آموزش، شبکه وزن و تعصب خود را بر اساس جفت های ورودی-خروجی تنظیم میکند و توانایی خود را برای تعمیم و پیش بینی دقیق داده های نامرئی بهینه میکند. در بخش تحقیق و پژوهش نیز موضوعات و مباحث مهم علوم کامپیوتر و شبکه، محاسبات و الگوریتم، طراحی و برنامه نویسی وب در قالب مستندات، داکیومنت و ترجمه ارائه میشود و بخش آموزشهای اصلی و رایگان ما در مجله پی استور است. در این مرحله، از قانون زنجیرهای مشتقات برای محاسبه گرادیانهای مرتبط با وزنها و بایاسها استفاده میشود. این گرادیانها به ما نشان میدهند که تغییر هر وزن چقدر بر روی خطای کلی تأثیر دارد. به عبارت دیگر، با محاسبه مشتق جزئی تابع خطا نسبت به هر وزن، میتوانیم تعیین کنیم که چقدر باید وزن را تغییر دهیم تا خطا کاهش یابد.
برای شروع باید با استفاده از کتابخانه NumPy در پایتون دادهها را نمایش دهید. استقرار مدل های شبکه عصبی در دستگاه های edge چالش های مربوط به محدودیت های منابع و کارایی را ارائه میدهد. زبان های برنامه نویسی باید برای پشتیبانی بهتر از محاسبات لبه ای تکامل یابند و امکان استفاده از مدل ها را در دستگاه هایی با قدرت محاسباتی محدود فراهم کنند. سپس شبکه با این مقادیر به عنوان ورودی آموزش داده میشود و خروجیها تولید میشود. خطای شبکه (مثلاً میانگین مربعات خطا – MSE) به عنوان تابع هدف برای PSO محاسبه میشود.
آموزش نورونهای پیشخور اغلب نیازمند «بازگشت به عقب یا انتشار معکوس» (back-propagation) است که شبکهای با مجموعههای متناظر ورودیها و خروجیها محسوب میشود. هنگامی که دادههای ورودی به «نورون» (neuron) انتقال پیدا کردند، پردازش میشوند و یک خروجی تولید میشود. در تصویر زیر، نموداری که ساختار یک شبکه عصبی ساده را نمایش میدهد آورده شده است. در ابتدای کار، ماتریسهای وزن و بردارهای بایاس متناظر با هر کدام از لایهها، مقداردهی اولیه خواهند شد. شایان ذکر است که مقادیر پارامترهای مسئله نباید توسط مقادیر صفر مقداردهی اولیه شوند؛ زیرا، با انجام چنین کاری، «گرادیانها» (Gradients) محاسبه شده برای تمامی حالات برابر خواهد شد و در هر تکرار، خروجی یکسان خواهد شد.
مقداردهی اولیه تصادفی بهتر از مقداردهی اولیه غیر تصادفی برای مجموعه داده های غیرخطی است. برای مجموعه داده های شبه خطی، کاملاً مشخص نیست که کدام رویکرد به طور مداوم برنده است. با توجه به این نتایج – ما به آن پایبند خواهیم بود مقداردهی اولیه تصادفی. III- نقشه ی محاسبه شده با SOM از نظر توپولوژیکی مرتب شده است، یعنی مکان یک نورون در نقشه متناظر یک قلمرو ویژگی مشخص الگوهای ورودی است. پس اگر p(wi)¹1/m شرط برقرار باشد، آنگاه ممکن است با مشکل گیر افتادن بردارهای وزن در نواحی ایزوله و عدم امکان حرکت آنها به نواحی مطلوب مواجه شویم.
در بخش های بعدی، جزئیات این عبارت تمرینی با وزنه را ارائه خواهیم کرد. در ضمن، پارامترهای استفاده شده در شبکه های ایجاد شده همان هایی است که در واسط گرافیکی مشخص می باشند. و کاربردهای بسیار دیگروجود دارند که با این شبکه و انواع اصلاح شده ی آن انجام می گیرد. IV- اگر توپولوژی یک بعدی باشد و ورودی دو بعدی شبکه با پیچ و خم سعی می کند آن را بپوشاند. مسئله ی دیگر در این فاز انتخاب پارامترهای مورد نیاز برای یادگیری است.
برنامه نویسی گمز