Тёмный

ДЕРЕВО РЕШЕНИЙ (DecisionTreeClassifier) | МАШИННОЕ ОБУЧЕНИЕ 

machine learrrning
Подписаться 9 тыс.
Просмотров 10 тыс.
50% 1

Опубликовано:

 

1 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 32   
@alexanderluzhetskii4144
@alexanderluzhetskii4144 2 года назад
Здравствуйте. Я немного не догоняю, почему в формуле прироста информации энтропия правой подвыбоки =1, если мы посчитали ее =0, ведь там все единицы, абсолютный порядок. Почему тогда в формулу мы вводим ее как 1 и еще нормируем 2/5*1 ? (это на 12 й мнуте) При этом итог получается правильным 0.419 .....опечатака однако )))
@machine_learrrning
@machine_learrrning 2 года назад
Действительно, очепятка, там не 1, а 0 Главное, что прирост информации сам подсчитан правильно :)
@pavelkoloyan7187
@pavelkoloyan7187 Год назад
Спасибо одно из лучших объяснений.👍
@machine_learrrning
@machine_learrrning Год назад
Спасибо за приятные слова 😊
@Alulisa
@Alulisa 2 года назад
Очень понятное объяснение, спасибо большое
@achmedzhanov_nail
@achmedzhanov_nail 7 месяцев назад
На 12:03 энтропия правой выборки 0, в формулу вычисления Q подставляется 1. ошибка?
@samSosiska
@samSosiska 4 месяца назад
По сути, да
@eightuponatime
@eightuponatime 9 дней назад
уф чуть не умер от панички, что что-то пропустил
@mb19127
@mb19127 Месяц назад
17:16 Почему разбиение было на [0, 3] и [1, 1], разве не лучше было бы на [0, 4] и [1, 0]? Может ли не быть такого вопроса, который отделял бы только эту единственную запись?
@mb19127
@mb19127 Месяц назад
Ладно, действительно может. Ведь значение может быть не крайнем. Чтобы точно отделить одно значение нужно два разбиения
@danyadetunm7609
@danyadetunm7609 Год назад
А если не задавать random_state, то чем обусловлено различие точности обученной модели, если обучать ее на одних и тех же данных, и проверять результат тоже на одинаковых данных?
@machine_learrrning
@machine_learrrning Год назад
Различия обусловлены случайностью, может повезти так, что выборка на тесте будет легче, поэтому метрика будет лучше, а может наоборот. И чтобы сравнивать именно модель, а не удачу, то и стоит фиксировать random_state
@АртёмКомарницкий-я9ь
Спасибо большое, всегда с нетерпением жду видео. Планируете серию разборов алгоритмов, например SVM(SVC, SVR), KNN?
@machine_learrrning
@machine_learrrning 2 года назад
Да, конечно, планирую и эти алгоритмы разобрать :)
@machine_learrrning
@machine_learrrning 2 года назад
Вот и видео по KNN можете изучать: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-m_bWhOLr_XM.html
@beast0608dihdbdn
@beast0608dihdbdn Год назад
Вы очень крутая, спасибо!
@machine_learrrning
@machine_learrrning Год назад
Рада помочь в изучении МЛ! 😸
@gobals8925
@gobals8925 2 года назад
Большое спасибо за видео. Я правильно понял, что алгоритм считает IG по всем значениям фичей, кроме тех, которые не позволяют разбить на две подвыборки?
@machine_learrrning
@machine_learrrning 2 года назад
Пожалуйста! Да, всё правильно поняли, перебираются все возможные варианты разбиения на две подвыборки
@LS-oh6po
@LS-oh6po Год назад
Очень интересно по технике, но есть вопрос по сути. Для чего в принципе составляется это дерево решений? Ищется какое-то оптимальное значение? То есть какая изначально задача? Спасибо.
@kochkindi
@kochkindi 2 года назад
Спасибо!!
@ИринаРадкевич-у6ц
@ИринаРадкевич-у6ц 10 месяцев назад
Спасибо! Крутое объяснение!
@Борисыч-в9м
@Борисыч-в9м Год назад
Я только не понял на 12:23 почему энтропия правой выборки внезапно стала равна 1 в формуле прироста информации?
@machine_learrrning
@machine_learrrning Год назад
Это опечатка, должен быть, конечно же, 0. Главное что значение прироста посчитано верно
@ДмитрийСвидовый
Подскажите, как работает алгоритм с категориальными данными?
@bobkr4725
@bobkr4725 Год назад
Полагаю, что через get_dummies - как и многие другие алгорииы
@goharavagova6845
@goharavagova6845 Год назад
огромное спасибо
@machine_learrrning
@machine_learrrning Год назад
Всегда пожалуйста 😸
@trollface4783
@trollface4783 10 месяцев назад
Спасибо
@mrhiesenberg5385
@mrhiesenberg5385 2 года назад
Допустим у нас есть задача идентификации человека по его фотографии. С точки зрения машинного обучения - это задача многоклассовой классификации изображений. При этом, в тестовой выборке могут содержаться изображения людей, которых не было в обучающем наборе и такие фотографии нужно как-то браковать. В случае с логистической/softmax регрессией - можно задать порог по принадлежности объекта тестовой выборки к классам обучающей. В случае с ближайшими соседями, этим порогом будет являться расстояние между объектами. А что будет является порогом для дерева?)
@machine_learrrning
@machine_learrrning 2 года назад
Для деревьев такой же порог можно задать, как и с логистической регрессией - порог по предсказанным вероятностям. Но хочу еще добавить, что задачи, связанные с классификацией людей лучше решаются через сверточные нейронные сети, в частности через подход metric learning.
@mrhiesenberg5385
@mrhiesenberg5385 2 года назад
@@machine_learrrning, я пробовал решить эту задачу с помощью: метода главных компонент + метод ближайшего соседа/softmax регрессия, гистограмма направленных градиентов + метод ближайшего соседа/softmax регрессия, классификация карт признаков сверточной нейронной сети facenet + метод ближайшего соседа/softmax регрессия) Хотел опробовать деревянные алгоритмы)
Далее
Как Я учил Data Science
13:04
Просмотров 37 тыс.