7.5 Gradient Boosting (L07: Ensemble Methods)

Опубликовано: 27 Октябрь 2020
на канале: Sebastian Raschka
12,999
221

Sebastian's books: https://sebastianraschka.com/books/

In this video, we will take the concept of boosting a step further and talk about gradient boosting. Where AdaBoost uses weights for training examples to boost the trees in the next round, gradient boosting uses the gradients of the loss to compute residuals on which the next tree in the sequence is fit.

XGBoost paper mentioned in the video: https://dl.acm.org/doi/pdf/10.1145/29...

Link to the code: https://github.com/rasbt/stat451-mach...

-------

This video is part of my Introduction of Machine Learning course.

Next video:    • 7.6 Random Forests (L07: Ensemble Met...  

The complete playlist:    • Intro to Machine Learning and Statist...  

A handy overview page with links to the materials: https://sebastianraschka.com/blog/202...

-------

If you want to be notified about future videos, please consider subscribing to my channel:    / sebastianraschka  


Смотрите видео 7.5 Gradient Boosting (L07: Ensemble Methods) онлайн без регистрации, длительностью часов минут секунд в хорошем качестве. Это видео добавил пользователь Sebastian Raschka 27 Октябрь 2020, не забудьте поделиться им ссылкой с друзьями и знакомыми, на нашем сайте его посмотрели 12,999 раз и оно понравилось 221 людям.