پس‌انتشار

پس‌انتشار[1] (انگلیسی: Backpropagation) یا انتشار معکوس، روشی در یادگیری عمیق شبکه‌های عصبی مصنوعی، با بیش از یک لایه پنهان است، که برای محاسبه دقیق تر گرادیان وزن مورد استفاده قرار می‌گیرد. این روش اغلب با بهینه‌سازی الگوریتم یادگیری و تثبیت وزن نورون‌ها با محاسبه گرادیان کاهشی تابع هزینه انجام می‌گیرد. این الگوریتم همچنین برای شبکه عصبی پیشخور که نیاز به یادگیری با نظارت دارند، نیز استفاده می‌شود.[2]

ساختار ریاضی الگوریتم

محاسبه گرادیان تابع هزینه برای سلول c

برای سلول عصبی ورودیی که از سلول عصبی به این سلول وارد می‌شود را با نشان می‌دهیم. وزن این ورودی است و مجموع ضرب ورودی‌ها با وزنهایشان را با نمایش می‌دهیم، یعنی . حال باید بر روی یک تابع غیر خطی اعمال کنیم، این تابع را می‌نامیم و خروجی آن را با نمایش می‌دهیم به این معنی که . به همین شکل خروجی‌هایی که از سلول عصبی خارج شده و به سلول وارد می‌شوند را با نمایش می‌دهیم و وزن آن را با . اگر تمام وزنهای این شبکه عصبی را در مجموعه‌ای به اسم بگنجانیم، هدف در واقع یادگیری این وزنهاست.[3] اگر ورودی ما باشد و خروجی و خروجی شبکه عصبی ما ، هدف ما پیدا کردن است به قسمی که برای همه داده‌ها و به هم خیلی نزدیک شوند. به عبارت دیگر هدف کوچک کردن یک تابع ضرر بر روی تمام داده هاست، اگر داده‌ها را با و تابع ضرر را با نشان دهیم هدف کمینه کردن تابع پایین بر حسب است:[4]

به عنوان مثال اگر مسئله رگرسیون است برای می‌توانیم خطای مربعات را در نظر بگیریم و اگر مسئله دسته‌بندی است برای می‌شود منفی لگاریتم بازنمایی را استفاده کرد.

برای بدست آوردن کمینه می‌توان از روش گرادیان کاهشی استفاده کرد، به این معنی که گرادیان تابع را در حساب کرد و کمی در خلاف جهت آن حرکت کرد و این کار را آنقدر ادامه داد تا تابع ضرر خیلی کوچک شود. روش بازگشت به عقب در واقع روشی برای پیدا کردن گرادیان تابع است.

حال فرض کنیم می‌خواهیم گرادیان تابع را نسبت به وزن بدست بیاوریم. برای این کار نیاز به قاعده زنجیری در مشتق‌گیری داریم. قاعده زنجیری به این شکل کار می‌کند: اگر تابعی داشته باشیم به اسم که وابسته به سه ورودی ، و باشد و هرکدام از این سه ورودی به نوبه خود وابسته به باشند، مشتق به به این شکل محاسبه می‌شود:

با استفاده از این قاعده زنجیری روش بازگشت به عقب را به این شکل دنبال می‌کنیم:

همان‌طور که در خط پیشین دیدیم برای بدست آوردن گرادیان نسبت به به دو مقدار نیاز داریم ورودی به سلول عصبی از سلول عصبی که همان است و راحت بدست می‌آید و که از روش بازگشتی بدست می‌آید و بستگی به آن ‌هایی لابه بعد دارد که سلول به آن‌ها وصل است، به‌طور دقیقتر .

روش بازگشتی برای بدست آوردن ‌ها به این شکل کار می‌کند که ابتدا را برای سلول‌های لایه خروجی حساب می‌کنیم، و بعد لایه‌ها را به نوبت پایین می‌روم و برای هر سلول آن را با ترکیت ‌های لایه‌های بالایی آن طبق فرمول حساب می‌کنیم. محاسبه کردن برای لایه خروجی آسان است و مستقیماً با مشتق گرفتن از بدست می‌آید.[5]

جستارهای وابسته

منابع

  1. مقایسه دو الگوریتم پس انتشار خطا و ژنتیک در یادگیری شبکه عصبی برای پیش‌بینی سری زمانی آشوبگونه. زهرا عربسرخی، محمدرضا اصغری اسکویی
  2. «Build with AI | DeepAI». DeepAI. بایگانی‌شده از اصلی در 17 اكتبر 2018. دریافت‌شده در 2018-10-24. تاریخ وارد شده در |archivedate= را بررسی کنید (کمک)
  3. A., Nielsen, Michael (2015). "Neural Networks and Deep Learning". Archived from the original on 22 اكتبر 2018. Retrieved 23 اكتبر 2018. Check date values in: |access-date=, |archive-date= (help)
  4. A., Nielsen, Michael (2015). "Neural Networks and Deep Learning". Archived from the original on 22 اكتبر 2018. Retrieved 23 اكتبر 2018. Check date values in: |access-date=, |archive-date= (help)
  5. Russell, Stuart; results, search (2009-12-11). Artificial Intelligence: A Modern Approach (به English) (3 ed.). Boston Columbus Indianapolis New York San Francisco Upper Saddle River Amsterdam, Cape Town Dubai London Madrid Milan Munich Paris Montreal Toronto Delhi Mexico City Sao Paulo Sydney Hong Kong Seoul Singapore Taipei Tokyo: Pearson. p. 578. ISBN 9780136042594.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.