هرس کردن درخت جستجو
هرس روشی در یادگیری ماشین است که باعث کاهش اندازه درختهای تصمیمگیری با از بین بردن بخشهایی از درخت است که قدرت کمی برای طبقهبندی نمونهها دارند. هرس باعث کاهش پیچیدگی طبقهبندی کنندهٔ نهایی میشود و از این رو باعث بهبود دقت پیش بینی و کاهش بیش برازش میشود.
مقدمه
یکی از پرسشهایی که در یک درخت تصمیمگیری مطرح میشود اندازه بهینه درخت نهایی است. یک درخت که بیش از حد بزرگ است خطرات بیش برازش بر روی دادههای آموزش را دارد و قدرت تعمیم آن به نمونههای جدید ضعیف است. از سوی دیگر یک درخت کوچک ممکن است نتواند ساختارهای مهم اطلاعاتی در مورد فضای نمونه ای را پوشش بدهد. اما تصمیمگیری در ارتباط با اینکه چه زمانی باید الگوریتم یک درخت متوقف شود، کار دشواری است. چرا که مشخص کردن اینکه آیا افزودن گره اضافی به درخت به کاهش خطا منجر خواهد شد غیرممکن است. این مشکلی است که تحت عنوان اثر افقی (به انگلیسی: horizon effect) شناخته شدهاست. یک استراتژی مشترک این است که به رشد درخت ادامه میدهیم تا زمانی که هر گره دربرگیرندهٔ تعداد کمی از نمونهها باشد، و سپس با استفاده از هرس گرههای که ارائه اطلاعات اضافی دربر ندارند را حذف میکنیم.[1]
منابع
- Trevor Hastie, Robert Tibshirani, and Jerome Friedman.