Тёмный

Лекция 2.4: Градиентный спуск. 

Deep Learning School
Подписаться 37 тыс.
Просмотров 20 тыс.
50% 1

Занятие ведёт Григорий Лелейтнер.
Ссылки на все части:
1. • Лекция 2.1: Линейная р...
2. • Лекция 2.2: LogLoss.
3. • Лекция 2.3: Логистичес...
5. • Лекция 2.5: Регуляриза...
6. • Лекция 2.6: Нормализация.
---
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_learning_school_news
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschool_mipt
Github-репозиторий: github.com/DLSchool/dlschool
Поддержать канал можно на Boosty: boosty.to/deeplearningschool
ФПМИ МФТИ
Официальный сайт: mipt.ru/education/departments...
Магистратура: mipt.ru/education/departments...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/education/departments...
Другие записи курсов от Лектория ФИВТ вы можете найти на канале / @stfpmi

Опубликовано:

 

16 май 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 9   
@gothluv4740
@gothluv4740 8 месяцев назад
объяснил суть производной и для чего она лучше чем учителя в школе и преподы в универе
@user-is3kd9ye9h
@user-is3kd9ye9h 3 года назад
11:20 Почему внутри суммы (сигма большая) не ставите скобки? Ведь вычитаемое входит в сумму и суммируется по i. А у вас оно отпадает от суммы.
@anton8682
@anton8682 3 года назад
Здравствуйте, откуда на 11:40 взялось x_ij?
@nikolaikrot8516
@nikolaikrot8516 3 года назад
На этом слайте "Градиентный спуск для логистической регрессии" 10:59 (ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-YWr3S1IqnlQ.html) все в порядке со знаками?
@datascience5487
@datascience5487 2 года назад
Не могу понять вычисление шага (5:19). В чем математически смысл изменения переменной функции именно на величину производной при такой переменной умноженной на learning rate? Почему надо делать именно такое изменение? Понятно, что это сдвигает переменную x в нужную сторону, постепенно уменьшая или увеличивая его, но почему именно так, в чем его смысл? Это как из расстояния вычесть скорость. Правильно ли я понимаю, что learning rate можно рассматривать как время?
@user-bt9ur4rh4w
@user-bt9ur4rh4w Год назад
Ты нашёл ответ на свой вопрос? А то я тоже не понял
@Kot_Matroskin135
@Kot_Matroskin135 10 месяцев назад
Не, это надо, чтобы у тебя величина, которую ты вычитаешь, тоже уменьшалась. В минимуме у тебя производная будет стремиться к нулю, значит и величина, которую ты вычитаешь, тоже будет стремиться к нулю. Таким образом ты быстрее найдешь минимум и уменьшается вероятность перескочить этот самый минимум. Формально можно и константу вычитать, но, как я уже выше написал, это полная херня
@cicik57
@cicik57 2 года назад
вроде бы логистическую регрессию считают от софтмакса и там получится просто разность
@TheBestRussianPub
@TheBestRussianPub 7 месяцев назад
Да, это для дискретных систем. В непрерывных именно таким образом считается. Просто это надо знать, чтобы понимать как переход осуществляется.
Далее
Part 2 ??
00:30
Просмотров 2,6 млн
Метрики машинного обучения
10:05
Лекция 2.2: LogLoss.
9:08
Просмотров 29 тыс.
Лекция 2.1: Линейная регрессия.
19:42
Метод покоординатного спуска
13:32