Тёмный

Тренировки по ML. Лекция 4: Решающие деревья, композиции деревьев, Random Forest 

Young&&Yandex
Подписаться 23 тыс.
Просмотров 9 тыс.
50% 1

Ссылка на материалы лекции: github.com/gir...
Процедура построения деревьев регрессии и классификации. Жадный алгоритм. Информационные критерии.
Бутстрап, бэггинг. ""Мудрость толпы"". Случайный лес.
Особые свойства решающих деревьев.
Подробнее о тренировках по ссылке (yandex.ru/yain....
Подписывайтесь на наши соц.сети: VK ( young_a..., Telegram (t.me/Young_and....

Опубликовано:

 

3 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 4   
@stepanlebedev8790
@stepanlebedev8790 10 месяцев назад
Великолепный лектор! Уже 4 лекцию радуюсь тому, что вы ведете эти тренировки. Спасибо вам!
@Irades
@Irades 10 месяцев назад
Спасибо ❤
@IgorKuts
@IgorKuts 10 месяцев назад
Спасибо за лекцию, Радослав!
@andreychernov7339
@andreychernov7339 10 месяцев назад
Радослав, большое спасибо за лекцию, очень крутая подача материала! Хочу задать немного прикладной вопрос насчет бэггинга. Есть в LGBM 2 гиперпараметра : bagging_frequency и bagging_fraction. Если я правильно понимаю, fraction работает примерно как OOB, про который было сказано в лекции. А насчет frequency, мне кажется, мы не разбирали. Буду очень признателен, за пояснение.
Далее