In this video we learn the gradient descent method, which is the next best thing for advanced problems that cannot be solved explicitly. In gradient descent, we calculate the gradient of the loss function with respect to the weights. Then we can slightly adapt the weights against the gradient to decrease the loss. We can repeat this process until reaching a local minimum. Gradient descent is controlled by the learning rate, which is another hyperparameter. As an example, we discuss the least mean squares update rule for linear regression.
Смотрите видео Gradient Descent онлайн без регистрации, длительностью часов минут секунд в хорошем качестве. Это видео добавил пользователь Computational Thinking 16 Ноябрь 2022, не забудьте поделиться им ссылкой с друзьями и знакомыми, на нашем сайте его посмотрели 1,06 раз и оно понравилось 2 людям.