Тёмный

Лекция 10. Деревья классификации и регрессии 

Computer Science Center
Подписаться 162 тыс.
Просмотров 26 тыс.
50% 1

compscicenter.ru/
Распознавание образов/классификация.
Параметры модели, внутренние и внешние.
Критерии качества. Обучающая и тестовая выборки.
Деревья классификации CART. Геометрическое представление. Представление в виде набора логических правил. Представление в виде дерева. Узлы, родители и потомки, конечные узлы. Пороговые значения. Меры чистота узла (impurity measures): джини, энтропия, ошибки классификации. Правила останоки обучения дерева. Информативность переменных.
Деревья классификации в задачах регрессии.
Лекция №10 в курсе "Анализ данных на Python в примерах и задачах. Часть 1" (весна 2018).
Преподаватель курса: Вадим Леонардович Аббакумов

Опубликовано:

 

3 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 26   
@MinisterDorado
@MinisterDorado Год назад
Обожаю когда лектор начинает давать исторические справки! Это пошло от туда, дргое от сюда!
@pointofview654
@pointofview654 2 года назад
Единственный преподаватель в этой области знаний, который смог мне что-то объяснить.
@gregorymatsnev312
@gregorymatsnev312 2 года назад
Согласен, подача материала достойная. Как собрат по несчастью могу посоветовать ещё посмотреть лекции от VK Team (ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-5Yl6_2d0CN0.html&ab_channel=VKTeam) - там крайне подробно показывают, как работать с библиотеками и вообще много кода (нужно будет кодить ручками - файлов нет) и ещё если углубляться в математику - есть интересные лекции Data Mining in Action (ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-3uhusIxPP38.html&ab_channel=DataMininginAction) - крайний курс лекций на канале.
@ekaterinashu9375
@ekaterinashu9375 4 года назад
Какой хороший лектор!!!! Редкость большая!
@marknoyanzin6108
@marknoyanzin6108 Год назад
Отличная лекция! Так доходчиво мне еще никто не объяснял! Потрясающе!
@sergeylexmens1166
@sergeylexmens1166 Год назад
Вадим Леонардович, спасибо Вам большое, одни из лучших лекций по ML в рунете!
@МихайловАртем-н8у
@МихайловАртем-н8у 3 года назад
Просто суперский лектор! Спасибо большое!
@Alexcei64rus
@Alexcei64rus 5 лет назад
Спасибо, очень понятно объясняете. Наконец-то понял причем тут деревья)
@СтепанГурьянов-ч3б
Отличный лектор!
@qwwwot3392
@qwwwot3392 Год назад
Просто замечательно!
@phil4765
@phil4765 3 года назад
круто, спасибо)
@foggydawning
@foggydawning Год назад
Очень доступно ✌
@antonmislawsky
@antonmislawsky Год назад
Thanks 🎉
@ana_smo
@ana_smo Год назад
Спасибо за лекцию, есть ли ноутбук с кодомна гитхабе?
@coolbrain
@coolbrain 2 года назад
Как правильно относится к важности фичей? Взял например учебные данные по диабету. Рандом форест инсулин самым важным рисует, а градиентный бустинг его на последнее место ставит.
@Vadim_Abbakumov
@Vadim_Abbakumov 2 года назад
Сложно угадывать, не видя данных и параметров модели. Чаще всего причина в чем-то похожа на коллинеарность: у вас есть замаскированные клоны инсулина. И информативность по разному распределяется среди клонов. Например, если у переменной "пол" информативность 6, то, введя дополнительно индикаторы "мужской пол" и "женский пол", Вы распределите информативность по трем переменных и получите, например, информативности 0, 4, 2, соответственно
@afoobar42
@afoobar42 2 года назад
А почему в качестве меры чистоты не взять просто например отношение крестиков к сумме крестиков и ноликов?
@Vadim_Abbakumov
@Vadim_Abbakumov 2 года назад
Нарушено ограничение f(0) = f(1) = 0
@_AbUser
@_AbUser 2 года назад
Эээ... я правильно понял, что в дереве регрессии: заменяем просто общее решение по всему множеству предикторв ax+b на сумму несколько частных решений, которые строятся по отдельным отрезкам значений интервалов предикторв, на которых наиболее точно можно подогнать апроксимацию? Типа a1x+b на инстевале от [0,5] а2х+b на интервале [5,20] и тд [20.... ???
@Vadim_Abbakumov
@Vadim_Abbakumov 2 года назад
Нет. На интервалах постоянное значение. Приближаем кусочно постоянной функцией.
@razdva1221
@razdva1221 3 года назад
А что за второгодник там сидит, который на все вопросы отвечает?
@ivanaaa6049
@ivanaaa6049 6 лет назад
А когда будет вторая часть курса, о которой говорит лектор? Было бы здорово выкладывать ее по мере обработки видео, чтобы не ждать обработки всех лекций.
@CompscicenterRu
@CompscicenterRu 6 лет назад
Вторая часть стартует ближайшей осенью.
@Vadim_Abbakumov
@Vadim_Abbakumov 6 лет назад
Вторая часть выкладывается тут ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-5l0e_Q0gpnc.html
@ivanaaa6049
@ivanaaa6049 6 лет назад
Спасибо!
Далее
Лекция 11. Random forest
50:12
Просмотров 19 тыс.
TRENDNI BOMBASI💣🔥 LADA
00:28
Просмотров 497 тыс.
Макростатистика. Лекция 1
1:10:46
Лекция 8. Линейная регрессия
1:10:53