لسو

لَسو[persian-alpha 1] یکی از روش‌های تنظیم مدل برای جلوگیری از بیش‌بردازش در رگرسیون است که باعث می‌شود بسیاری از پارامترهای مدل نهائی صفر شوند و مدل به اصلاح خلوت[persian-alpha 2] شود.[1] در روش لَسو نُرمِ به تابع هزینه اضافه می‌شود.[1]

تعریف ریاضی

اگر در مسئله رگرسیون داده‌ها را با نمایش دهیم، هدف بدست آوردن از ترکیبی خطی از است یعنی . در اینجا و هر دو بردار و دارای بعد یکسان هستند. رگرسیون خطی معمولی به شکل پایین در پی یافتن و بهینه است:

حال اگر داده‌ها را در ماتریس و بردار بگنجانیم مسئله به عبارت پایین تغییر شکل می‌دهد:

پیچیدگی مدل‌های پارامتری با تعداد پارامترهای مدل و مقادیر آن‌ها سنجیده می‌شود. هرچه این پیچیدگی بیشتر باشد خطر بیش‌برازش[persian-alpha 3] برای مدل بیشتر است.[2] پدیدهٔ بیش‌برازش زمانی رخ می‌دهد که مدل به‌جای یادگیری الگوهای موجود در داده، خود داده را به خاطر می‌سپارد. در این حالت، مدل برای آن مجموعه دادهٔ به‌خصوص خوب عمل می‌کند اما برای داده‌های مشابه دیگر عملکرد خوبی ندارد، که یعنی عمل یادگیری به خوبی انجام نشده‌است. برای جلوگیری از بیش‌برازش در مدل‌های خطی مانند رگرسیون خطی یا رگرسیون لجستیک، یک «جریمه»[persian-alpha 4] به تابع هزینه اضافه می‌شود تا از افزایش زیاد پارامترها جلوگیری شود. به این کار تنظیم مدل گفته می‌شود.[3] در روش لَسو ضریبی از نُرمِ به تابع هزینه اضافه می‌شود:

این کار باعث می‌شود بسیاری از پارامترهای مدل نهائی صفر شوند و مدل به اصلاح خلوت شود.[1] اضافه کردن ضریبی از نُرمِ به تابع هزینه معادلِ ایجاد محدودیتی بر روی نُرمِ پارامتر است:

یادداشت‌ها

  1. LASSO مخفف least absolute shrinkage and selection operator
  2. sparse
  3. overfitting
  4. penalty

منابع

  1. Natarajan, B. K. (1995). "Sparse Approximate Solutions to Linear Systems". SIAM Journal on Computing. 24 (2): 227–234. doi:10.1137/s0097539792240406. ISSN 0097-5397. Archived from the original on 24 May 2019. Retrieved 17 December 2019.
  2. Bühlmann, Peter; van de Geer, Sara (2011). "Statistics for High-Dimensional Data". Springer Series in Statistics. doi:10.1007/978-3-642-20192-9. ISSN 0172-7397. Archived from the original on 21 February 2019. Retrieved 5 October 2018.
  3. Bühlmann, Peter; van de Geer, Sara (2011). Theory for ℓ1/ℓ2-penalty procedures. Berlin, Heidelberg: Springer Berlin Heidelberg. pp. 249–291. doi:10.1007/978-3-642-20192-9_8. ISBN 9783642201912. Archived from the original on 5 October 2018.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.