Тёмный

Лекция 12. AUC, ROC кривые. Логистическая регрессия (Анализ данных на Python. Ч2) 

Computer Science Center
Подписаться 162 тыс.
Просмотров 18 тыс.
50% 1

compscicenter.ru/
Анализ несбалансированных выборок. Accuracy, precision, recall, F1. ROC кривая (ROC curve) для определения порогового значения. ROC кривая (ROC curve) для сравнения классификаторов. Area under curve (AUC). Логистическая регрессия (Logistic regression).
Лекция № 12 в курсе "Анализ данных на Python в примерах и задачах. Часть 2" (осень 2018).
Преподаватель курса: Вадим Леонардович Аббакумов
Страница лекции на сайте CS центра: bit.ly/2SVcug3

Опубликовано:

 

30 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 16   
@vladimirkimbris8109
@vladimirkimbris8109 3 года назад
Вадим Леонардович, хочу поблагодарить вас за этот прекрасный курс! Благодаря Вам, получил работу в сфере Data Science, Спасибо Вам большое! Вы преподаватель от Бога!
@Vadim_Abbakumov
@Vadim_Abbakumov 3 года назад
Удачи! Поздравляю! Спасибо за теплые слова
@shandi1241
@shandi1241 4 года назад
Ну что могу сказать, в сентябре выхожу data-аналитиком на новую работу :), до этого 6 лет java enterprise, готовился по Вашим лекциям. Жаль, на матмехе СПбГУ не удалось попасть к Вам на курс. Надеюсь карма в мире есть, поэтому желаю всех благ. Спасибо Вам, Вадим Леонардович.
@Vadim_Abbakumov
@Vadim_Abbakumov 4 года назад
И Вам спасибо, удачи!
@МаринаПлатонова-з6х
Time code. Теория начинается с 9:20
@numaki2506
@numaki2506 3 года назад
Я вот вспоминаю как нам преподавали курс по ML в универе и у меня появляется чувство что меня обплевали, препод приходил на пару говорил "открывайте учебник и читайте" и уходил пить чай. Вот бы все преподы рассказывали материал как Вадим Леонардович
@Sibbarb9
@Sibbarb9 3 года назад
Если бы преподов тоже получали 200+
@kingcchultz3366
@kingcchultz3366 3 года назад
Прекрасное видео, только благодаря этой лекции и гайда с coderlessons смог сделать практическую работу в универе.
@ОлегСотов-ю9с
@ОлегСотов-ю9с 5 лет назад
Возможно ли, что вычисление частичной площади под кривой (только для тех порогов, которые реально будут использоваться) решит задачу корректного сравнения классификаторов с помощью AUC? И «красный» классификатор, у которого AUC, вычисленный по всем порогам, меньше, чем у «чёрного», станет лучше по частичной AUC?
@Vadim_Abbakumov
@Vadim_Abbakumov 5 лет назад
Затрудняюсь с ответом
@Gyringag
@Gyringag 5 лет назад
А для каких "тех" порогов? Порог использоваться будет только один, и их сравнение это и есть сравнение расстояния до 1
@Calmy100
@Calmy100 5 лет назад
спасибо за курс! ссылка на сайте ведет на 11 лекцию, вместо 12
@CompscicenterRu
@CompscicenterRu 5 лет назад
Спасибо огромное! Поправили
@linkernick5379
@linkernick5379 3 года назад
Глубокое замечание на 35:25, ведь действительно, мы используем классификаторы для конкретного порога, а roc-auc-и сравниваются по всем возможным. В этом смысле F_beta гораздо осмысленнее.
@Sibbarb9
@Sibbarb9 3 года назад
Коллеги понятно
@Satmek
@Satmek 5 лет назад
Звук тихий
Далее
Лекция 4. Метод к-средних
24:40
Просмотров 26 тыс.
8. МО-1 ФКН: PR-AUC и ROC-AUC
1:09:21
Просмотров 964
Логит и пробит модели
9:16
Просмотров 19 тыс.