Тёмный

Как обучается дерево решений для регрессии. Decision Tree Regressor. 

machine learrrning
Подписаться 9 тыс.
Просмотров 20 тыс.
50% 1

Опубликовано:

 

3 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 61   
@dr.sartorius8855
@dr.sartorius8855 20 дней назад
Так доступно еще никто не объяснял. Спасибо)
@TheRudolfSchnaps
@TheRudolfSchnaps Год назад
Девочка, какая радость была тебя найти. Спасибо большое. Твоя лекция в виде блокнота шедевральна!
@theodoreneighboure
@theodoreneighboure 2 года назад
Огромное спасибо.лучшее что удалось посмотреть за многие дни поиска информации.
@foo52ru
@foo52ru 2 года назад
Прекрасно объясняете, просмотрел на одном дыхании, все непонятные моменты раскрыты.
@Diabolic9595
@Diabolic9595 Год назад
Не ожидал вас тут увидеть) У вас тоже очень интересные и познавательные ролики
@ekaterinakazakovskaya9239
@ekaterinakazakovskaya9239 2 года назад
очень доступные объяснения, спасибо
@evb9248
@evb9248 2 года назад
Спасибо! Всё понятно! А-то я чуть не заблудился среди этих решающих деревьев...
@КириллКонстантинов-у6б
Замечательно объяснение, все подробно и понятно. Спасибо!
@МихаилШевелев-м4я
@МихаилШевелев-м4я 10 месяцев назад
Лучшее объяснение, которое нашел!! Спасибо большое
@aboba98159
@aboba98159 2 года назад
Все максимально доступно и понятно, большое вам спасибо
@t.voronova
@t.voronova Год назад
Огромное спасибо! Самое лучшее объяснение, которое я нашла!🙂
@Denzi33
@Denzi33 Год назад
Солнышко, заячка, дай Бог здоровья Тебе.
@paveltimofeev5686
@paveltimofeev5686 Год назад
Как же всё понятно!
@VideosByDr1m
@VideosByDr1m 2 года назад
Случайно наткнулся, очень понравился контент. Спасибо!
@machine_learrrning
@machine_learrrning 2 года назад
Очень рада, что контент понравился :)
@hinomuratomisaburo4901
@hinomuratomisaburo4901 2 года назад
умная девочка все подробно и на доступном языке )
@blessedponica8030
@blessedponica8030 Год назад
Большое спасибо! Очень понятное изложение материала!
@ЕвгенийФёдоров-у9ь
Спасибо большое. Лучше и объяснить было нельзя
@doniyordjon_pro
@doniyordjon_pro Год назад
Можете сделать для CatBoost и XGB также. Много видео смотрел в просторах интернета, но так понятно как вы это сделали ни у кого
@IvanSedov-i7f
@IvanSedov-i7f Год назад
Большое спасибо, все понятно
@machine_learrrning
@machine_learrrning Год назад
Пожалуйста! Рада помочь :)
@alexandrg5721
@alexandrg5721 2 года назад
Большое спасибо! Всё доступно и понятно!!
@TheOneDesteny
@TheOneDesteny 2 года назад
Здорово. Очень интерактивно. Нужно было, имхо, только упомянуть, что доведение разбиений до листьев, где лежат уникальные элементы - плохое дело, которое ведет к переобучению. Но это уже другой разговор)
@machine_learrrning
@machine_learrrning 2 года назад
безусловно, это плохое дело) вот в этом видео как раз-таки про это и говорю ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-aWEdaXAZ01M.html
@kirillgrossberg6950
@kirillgrossberg6950 2 года назад
Это очень хорошо Большое спасибо за видео!!!
@thomascromwell2083
@thomascromwell2083 11 месяцев назад
Отличное объяснение!
@user-vl9km6ot1h
@user-vl9km6ot1h 7 месяцев назад
От души) очень понравилось обьяснение. На 12:06 не понял откуда в правых скобках взялось число 3.521(наверное описка, должно быть 4.526)
@kosby5963
@kosby5963 10 месяцев назад
Как всегда топ!❤
@igorgordiy7709
@igorgordiy7709 2 года назад
Умница!
@alex_zvet-q9o
@alex_zvet-q9o 4 месяца назад
Объяснение топ, но кажется вы немного напутали с цифрами!!!
@alexwhite252
@alexwhite252 Год назад
Отлично! Спасибо!
@gunner1163
@gunner1163 3 месяца назад
спасибо👍
@zhuk2205
@zhuk2205 2 года назад
Большое спасибо за очень доступное объяснения!!! Насколько я понял, мы сначала ищем IG для корневого элемента, потом след. ветку (в которой очень большая MSE) считаем за корневую и начинаем заново просчет. И так до конца, пока по большинству элементов дерева не будет либо нулевая ошибка, либо допустимая для нас.
@machine_learrrning
@machine_learrrning 2 года назад
Да, такая реализация возможна. В этом случае построение разбиений будет по листьям с наибольшей ошибкой, подход называет leaf wise growth.
@osvab000
@osvab000 2 месяца назад
Не понятно, - почему в первом узле вопрос меньше или равно 409? Не 410, не 525, а именно 409???
@andreyo.945
@andreyo.945 2 года назад
Спасибо большое!. А можно по всем классическим моделям так?)
@machine_learrrning
@machine_learrrning 2 года назад
Так и планирую сделать :)
@oxydora
@oxydora 2 года назад
Спасибо за видео! Очень доступно и понятно. Подскажите, пожалуйста, Вы сказали, что разбор критериев останова будет в следующем видео. Оно не вышло? Просто интересно узнать насчет критерия останова и как все-таки происходит дальнейшее прогнозирование на новых данных
@machine_learrrning
@machine_learrrning 2 года назад
Очень рада, что понравилось видео! По критериям останова пока ещё не сформировала материал, но раз хочется это услышать, то ускорюсь с этим процессом :)
@machine_learrrning
@machine_learrrning 2 года назад
Наконец-то могу поделиться ссылкой на видео про критерии останова в дереве решений: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-aWEdaXAZ01M.html
@LS-oh6po
@LS-oh6po Год назад
Интересно, а ИИ и градиентный бустинг может решать задачу выбора оптимального значения из массива? То есть есть массив из которого надо выбрать лучшее значение по каким-то признакам. Например, 1000 жителей которые обладают критериями - пол, вес, возраст и т.д. из которых надо выбрать лучшего. При этом присваивая важность критериям.
@ЕкатеринаА-л6ц
@ЕкатеринаА-л6ц 2 года назад
Привет! Спасибо за видео, очень понятно и полезно) Получается, в задаче регрессии мы рассчитываем IG и принимаем решение на основе MSE. А для задачи классификации на основе чего?
@machine_learrrning
@machine_learrrning 2 года назад
Привет! В задаче классификации смотрим на критерии информативности Энтропия или Критерий Джини. Планирую ещё подготовить видео про обучение дерева решений для задачи классификации.
@machine_learrrning
@machine_learrrning 2 года назад
Вот как раз ссылка на дерево решений для задачи классификации: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-j8L07nuns2Y.html
@levonabgaryan304
@levonabgaryan304 Год назад
Спасибо за видео очень ясно, очееень, я понял почти все, есть 2 вопросика(если не лень) .Когда модель будет менять тип вопроса с перва он задает вопрос про Population, а когда он решает ,что надо менять вопрос?И когда мы рекурсивно все это делаем, и брейкаем когда у нас MSE == 0 , но в это время у нас остается один value и этот value из датасета, потому что средное одного числа это етого же число, и таким образом в test датах получим переобучение , вот как это работает правильно? Заранее спасибо.
@Тима-щ2ю
@Тима-щ2ю 7 месяцев назад
Подскажите, правильно ли понимаю, если например признаков = 100 и уникальных значений у каждого признака например = 10,000, тогда на каждом шаге мы рассматриваем примерно 100 * 10,000 разбиений? Кажется такие алгоритмы должны довольно медленно работать?
@НикитаКуцепалов-и2д
А как именно формулируется вопрос в ноде? Например почему в верхней (корневой, 1ой) ноде именно 409, а не скажем 410)
@machine_learrrning
@machine_learrrning 2 года назад
Вопросы строятся перебором: если есть признак f со значениями 409, 411, 413, то мы можем задать следующие вопросы: 1. f
@НикитаКуцепалов-и2д
@@machine_learrrning, то что вопросы в ноде можно задать различные - понятно. Не понятно, почему модель остановилась именно на этом конкретном значении в вопросе ноды, это не медиана и не среднее. Это както связано с criterion в процессе перебора?
@machine_learrrning
@machine_learrrning 2 года назад
@@НикитаКуцепалов-и2д модель остановилась на этом вопросе, потому что при его использовании прирост информации получился максимальным нежели при других вопросах значит данный вопрос лучше помогает разбивать выборку на две части
@НикитаКуцепалов-и2д
@@machine_learrrning а как "максимальный прирост информации" формально (строго) определен. Подскажите, что почитать/посмотреть можно?
@machine_learrrning
@machine_learrrning 2 года назад
@@НикитаКуцепалов-и2д в видео говорю про него ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-0mMeaC3gjNI.html Плюсом можете почитать эту статью: habr.com/ru/company/ods/blog/322534/
@SofaSofa-fw2bz
@SofaSofa-fw2bz Год назад
а зачем если голодный гулять? наоборот надо быстрей домой чтобы поесть 🤔🤔
@delkaaaa
@delkaaaa Год назад
А можете подсказать, почему когда, мы считаем MSE по левой выборке в House...у нас (3.585-4.0555)^2+(3.521-4.0555)^2....вот почему 3.521, если у нас значение ypred там 4.526? А в случае когда у меня разные признаки может быть такое что 1 вопрос, например, был про цену дома с каким то порогом, второй потом например, по местоположению дома, а 3, например, опять про цену дома? тоесть признаки могут комбинироваться в зависимости от прироста?
@Mihail_Titov068
@Mihail_Titov068 2 года назад
Подскажите, max_features - число признаков, по которым ищется разбиение. Вот если я укажу 3 из 10, то как берутся признаки? (Поочереди или рандомно) и можно ли посмотреть какие взялись?
@machine_learrrning
@machine_learrrning 2 года назад
max_features берутся случайно на каждом вопросе, так что если указали 3 признака, то при каждом новом разбиении будут браться случайные 3 признака Посмотреть можно только при визуализации через plot_tree, какие же там вопросы выбрались, как самые лучшие
@samSosiska
@samSosiska 3 месяца назад
322.0 это 322
@TheMasterNumberSeven
@TheMasterNumberSeven Год назад
Класс, спасибо. ❤️
@machine_learrrning
@machine_learrrning Год назад
Пожалуйста! 😸
Далее
У КОТЯТ ОТКРЫЛИСЬ ГЛАЗКИ#cat
00:26
PERFECT PITCH FILTER.. (CR7 EDITION) 🙈😅
00:21