Тёмный

Линейная регрессия. Что внутри sklearn? Зачем градиентный спуск? Что спросят на собеседовании? ч.2 

Start Career in DS
Подписаться 5 тыс.
Просмотров 8 тыс.
50% 1

Опубликовано:

 

3 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 11   
@hopelesssuprem1867
@hopelesssuprem1867 Год назад
Я пересмотрел много различных видео и могу сказать, что это одно из лучших объяснений. Мб мне все понятно потому что я уже так заботал математику, что сам и не заметил как она стала называться машинным обучением)). Сделайте пж видео по логистической регрессии с примером вычисления т.к. это естественное продолжение линейной регрессии.
@plwthme
@plwthme 4 дня назад
Очень мощно и кратко, все по делу
@maksim00973
@maksim00973 2 года назад
Топовый контент, продолжай =)
@tournament-bracket.comadvi3224
@tournament-bracket.comadvi3224 2 года назад
збс, давай ещё :) А так на самом деле хорошая подача в том смысле что не адски глубоко и не супер поверхностно а весьма наглядно и без лишней воды. Отсылки к материалам кто хочет разобраться лучше тоже огонь
@VanyaQA
@VanyaQA 2 года назад
Спасибо большое! Главное не останавливайся
@saitaro
@saitaro 2 года назад
Супер, спасибо!
@ДаниилКраев-я7ч
@ДаниилКраев-я7ч 2 года назад
Пожалуйста продолжай
@kochkindi
@kochkindi 2 года назад
Спасибо!!
@Extremesarova
@Extremesarova 2 года назад
Спасибо!
@seriouspetrovich7113
@seriouspetrovich7113 8 месяцев назад
7:59 если мы двигаемся в сторону антиградиента, то почему в итоговой формуле для весов берём тот градиент, который был посчитан выше? Перефразирую - не нужно ли было убрать минус перед двойкой?
@aleksey3750
@aleksey3750 Год назад
Круто
Далее
V16 из БЕНЗОПИЛ - ПЕРВЫЙ ЗАПУСК
13:57
У КОТЕНКА ПРОБЛЕМА?#cat
00:18
Просмотров 745 тыс.
БАГ ЕЩЕ РАБОТАЕТ?
00:26
Просмотров 153 тыс.
V16 из БЕНЗОПИЛ - ПЕРВЫЙ ЗАПУСК
13:57