Тёмный

Регуляризация простыми словами | L1, L2, Elastic Net | Lasso, Ridge | Машинное обучение 

machine learrrning
Подписаться 8 тыс.
Просмотров 11 тыс.
50% 1

Поддержать канал можно оформив подписку на
🎉 boosty.to/machine_learrrning
🎉 machine_learrrning
🎉 А можете скидывать монеты на www.donationalerts.com/r/mach...
Канал в TG t.me/machine_learrrning
Группа в VK machine_learrrning
Преподаю на курсах в онлайн-университете на программах, связанных с ИИ и Data Science:
go.redav.online/13d10800fd8342c0 (Нетология)
Приходите ко мне на занятия!
Курсы на платформе Stepik:
1. Библиотеки Python для Data Science stepik.org/a/129105
2. Введение в нейронные сети (Keras/Tensorflow) stepik.org/a/127274
❓ Вопросы, на которые найдем ответы в этом видео:
- Зачем нужна регуляризация?
- Что из себя представляет регуляризация?
- Какие есть отличия L1 и L2 регуляризации?
- Как можно пользоваться регуляризацией?
🌟 Переобучение • ТИПЫ ДАННЫХ В МАШИННОМ...
🌟 Что делать с переобучением • Что делать с переобуче...
🌟 Линейная регрессия • РЕАЛИЗАЦИЯ ЛИНЕЙНОЙ РЕ...
0:00 Введение
0:17 План занятия
0:28 Что нужно знать для занятия
0:47 Поддержка boosty.to/machine_learrrning
0:47 Поддержка machine_learrrning
1:03 Зачем нужна регуляризация
1:18 Почему регуляризация помогает бороться с переобучением
1:45 Что такое регуляризация
2:23 Штраф на линейную модель
3:11 Большой коэффициент регуляризации
4:10 Маленькое значение коэффициента регуляризации
4:43 Коэффициент регуляризации
5:00 L2 регуляризация. Ridge. Гребневая регрессия
6:26 L1 регуляризация. Lasso
6:58 Нулевые веса при L1 регуляризации. Отбор признаков
7:27 Что такое Elastic Net
8:26 Резюме по методам регуляризации
8:39 Как использовать регуляризацию
9:12 Регуляризация для регрессии
10:12 Регуляризация для классификации
10:53 RidgeClassifier
11:20 Резюме занятия
12:06 ♡

Опубликовано:

 

2 июл 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 40   
@user-oo7tz3zr8j
@user-oo7tz3zr8j 2 месяца назад
Потрясающие объяснения, спасибо! Очень помогает осознать в самообучении )
@cosmonaut380
@cosmonaut380 Год назад
Спасибо! Лучшее объяснение регуляризации, что я слышал.
@machine_learrrning
@machine_learrrning Год назад
Безумно рада, что объяснение понятно :)
@dmitrec999
@dmitrec999 3 месяца назад
как я рад что тебя нашел!)
@user-hb6dg7gp3b
@user-hb6dg7gp3b Год назад
В одной домашке вы-знаете-где хотела поменять регуляризацию в логистической регрессии с l2 на другие методы. И получила Nan в результате. Спасибо за это видео, теперь я поняла, где была ошибка)
@machine_learrrning
@machine_learrrning Год назад
Очень рада, что получилось разобраться с ошибкой благодаря моему видео :)
@user-vb9qz6yk2r
@user-vb9qz6yk2r 11 месяцев назад
Огромное спасибо. Суперские объяснения!
@some_name12847
@some_name12847 8 месяцев назад
Спасибо большое, за старание, пришёл с Udemy с курса по ML, хотя бы картина в голове сложилась!
@d14400
@d14400 8 месяцев назад
Чудесное объяснение и подача материала, спасибо
@user-wd8di7xz1o
@user-wd8di7xz1o 6 месяцев назад
Материал изложен просто и наглядно, что очень понравилось!
@shapovalentine
@shapovalentine Год назад
Спасибо Вам большое☺🙏
@bysedova
@bysedova 3 месяца назад
Супер! Все понятно! Хотелось бы еще иногда видеть разбор формул, потому что забывается что-то со временем (я тут освежаю в памяти базу) и хотелось бы про нейронки увидеть контент
@user-uz2fm8pq3s
@user-uz2fm8pq3s Год назад
Отличное видео, спасибо, Юлия! Не останавливайтесь!
@machine_learrrning
@machine_learrrning Год назад
Большое спасибо за приятные слова! 😊
@user-ve2ym4ue2u
@user-ve2ym4ue2u 8 месяцев назад
супер, спасибо за инфу
@user-kq9mx8gt2x
@user-kq9mx8gt2x 5 месяцев назад
Благодарю!
@sergeyvolkov2273
@sergeyvolkov2273 Год назад
великолепно!
@TheGnezdoOfZevs
@TheGnezdoOfZevs Год назад
Спасибо огромное, скоро сдавать буду лабу, Ваше видео очень сильно помогло!
@machine_learrrning
@machine_learrrning Год назад
Здорово, что мои видео помогают готовиться к лабораторным 😊
@user-fr7df3tw1v
@user-fr7df3tw1v Год назад
😀 огонь
@user-ge2fn2dd1w
@user-ge2fn2dd1w Год назад
Спасибо большое за видео! Очень хотелось бы понять, что за solver-ы такие) часто встречаю, но не очень понимаю разницу.
@glavnyi_heyter
@glavnyi_heyter Год назад
Как же вовремя, спасибо) у меня в проекте линейка то переобучается то низкая метрика
@machine_learrrning
@machine_learrrning Год назад
Пожалуйста! Рада, что видео вышло в нужный момент 😊
@semensamoilov5175
@semensamoilov5175 Год назад
фига! какой я клевый канал случайно нашел
@machine_learrrning
@machine_learrrning Год назад
Очень рада этой находке 😊
@user-jd6uz5si2f
@user-jd6uz5si2f Год назад
Согласен! Канал- ТОР!
@user-cn7em3rx5d
@user-cn7em3rx5d 8 месяцев назад
про весы , конечно, забавно)
@plained78
@plained78 Год назад
Смотрите тогда такой вопрос, исходя из вашего примера. В обычной задачи линейной регрессии, без регуляризации мы минимизируем функционал качества Q(w,X), то есть MSE. Мы подбираем такие B, чтобы MSE была минимальной. После добавление регуляризации Q(w,X) + a||w||^2 мы минимизируем уже эту функцию, но на основе чего? Получается чем меньше коэффициенты B, тем лучше ведь?
@machine_learrrning
@machine_learrrning Год назад
В целом, да. Но если коэффициенты будут крайне маленькими, то они вряд ли будут подходить для оптимального решения, то есть сама MSE будет большой, поэтому нужно и MSE уменьшать и веса (в рамках разумного)
@giblyfgiblyf
@giblyfgiblyf 8 месяцев назад
Почему при Лассо регуляризации веса становятся нулевыми, а при гребневой нет?
@user-jd6uz5si2f
@user-jd6uz5si2f Год назад
Почему L1 зануляет веса, а L2 нет?
@stillyoungabdpretty
@stillyoungabdpretty 4 месяца назад
Модуль является недифференцируемой функцией, что означает, что он не имеет производной в точке ноль. Поэтому при оптимизации модели с использованием L1-регуляризации возникает ситуация, когда оптимальным решением для некоторых коэффициентов будет установка их в ноль, чтобы минимизировать общий штраф.
@user-tu8cl5eh4v
@user-tu8cl5eh4v Год назад
Не останавливайся ))
@machine_learrrning
@machine_learrrning Год назад
Стараюсь, но основная работа порой останавливает 😸
@user-hd3ge1sk1y
@user-hd3ge1sk1y 4 месяца назад
А может кто-то объяснить, почему в L2 регуляризации веса не могут занулиться, а в L1 могут?
@LolaL7088
@LolaL7088 3 месяца назад
Выше ответ есть. Что уж модуля нет производной => оптимальный вариант уменьшить вес, это прировнять его 0
@arti5946
@arti5946 Месяц назад
Вы чудесно объясняете, но неужели у вы никогда не находили в себе мотивацию исправить речевой дефект ? Это же не так сложно
@Dodenius
@Dodenius Месяц назад
Неужели Вы никогда не находили в себе мотивацию не токсичить людей за их особенности, с которыми им жить, а не Вам?
@Roc19961
@Roc19961 Год назад
Всегда проблемы были с этой темой
@machine_learrrning
@machine_learrrning Год назад
Сейчас самое время эти проблемы решить :)
Далее
Ридж и LASSO регрессия
9:50
Просмотров 8 тыс.