Тёмный

Лекция 2.2: LogLoss. 

Deep Learning School
Подписаться 37 тыс.
Просмотров 30 тыс.
50% 1

Занятие ведёт Григорий Лелейтнер.
Ссылка на материалы занятия: drive.google.com/drive/folder...
---
Серия "Линейные алгоритмы"
Видео 1. Линейная регрессия: • Лекция 2.1: Линейная р...
Видео 2. LogLoss: • Лекция 2.2: LogLoss.
Видео 3. Логистическая регрессия: • Лекция. Логистическая...
Видео 4. Градиентный спуск: • Лекция. Градиентный сп...
Видео 5. Регуляризация в линейной регрессии: • Лекция. Регуляризация ...
Видео 6. Нормализация: • Лекция 2.6: Нормализация.
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_learning_school_news
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschool_mipt
Github-репозиторий: github.com/DLSchool/dlschool
Поддержать канал можно на Boosty: boosty.to/deeplearningschool
ФПМИ МФТИ
Официальный сайт: mipt.ru/education/departments...
Магистратура: mipt.ru/education/departments...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/education/departments...
Другие записи курсов от Лектория ФИВТ вы можете найти на канале / @stfpmi

Опубликовано:

 

3 окт 2020

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 12   
@jvsg6
@jvsg6 3 года назад
Максимизировать произведение достаточно сложно, поэтому будем максимизировать логарифм от произведения. Это намного проще...
@maxmitrofanov9005
@maxmitrofanov9005 3 месяца назад
И в самом деле, максимизировать логарифм от произведения не проще. Но есть свойство логарифма, которое говорит, что логарифм произведения множителей равен сумме логарифмов множителей (cs.msu.ru/sites/cmc/files/docs/svoystva_logarifmov.pdf). А вот максимизировать сумму значительно проще, чем произведение.
@user-pr7de7jq2v
@user-pr7de7jq2v Год назад
Всё-таки нужно было упомянуть о распределении Бернулли :)
@Fr2elancer
@Fr2elancer Год назад
Оооочень жесткая математика. Хорошо бы на частных примерах ее разобрать, на кошечках и собачках. Возможно это бы помогло людям
@natalias8919
@natalias8919 3 месяца назад
Хорошая модель, хорошие параметры модели, хорошие веса. Некая теорема статистики. Чем хороши веса и параметры? Добавьте одну фразу. Какая именно теорема? Поставьте звездочку и сделайте ссылку на слайде. Подача материала как для домохозяек: поверьте на слово, что вот это хорошо согласно некой теореме. Аминь.
@vadimosipov2147
@vadimosipov2147 3 года назад
"Теорема из статистики гарантирует, что если мы найдем параметры модели, которые максимизируют правдоподобие, то они будут хорошие." А что такое хорошие параметры модели?
@DeepLearningSchool
@DeepLearningSchool 3 года назад
Чтобы это уточнить пришлось бы рассказывать достаточно много статистики, а наш курс не про нее. В целом, вы можете сами прочитать, какие гарантии на оценку даются методом максмального правдоподобия.
@user-cq4wd1ui1e
@user-cq4wd1ui1e 2 года назад
@@DeepLearningSchool Скорее непонятен термин "хорошие". То есть... отвечающие модели? Гарантирующие стабильность работы? Не содержащие числа сатаны и чёртовой дюжины? Да, я уже запланировал себе курс статистики. Просто здесь вопрос не про методы статистики, а что мы хотели бы считать хорошим - или хотя бы объяснение, что мы считали бы плохим. и тогда хорошее = не плохое
@svdminsk
@svdminsk 2 года назад
Там сказано не "параметры модели", а "веса модели" - это фразы с различным смыслом. Если речь про веса - то интуитивно фраза понятна: хорошие - значит "чтобы максимизировать правдоподобие нужно подбирать некие веса (в совокупности)". Немного невнятно, да, но логика в словах прослеживается. Хотя стоило бы выражаться более четко, но, считаю, что не кретично. Вцелом лекция сбалансирована и интуитивно-понятна - лектор не просто говорит "така нада!", а даёт прозрачные намеки на то, кому и почему надо. Если доработать и уменьшить пробелы - получится вообще огонь! =)
@juniorly3942
@juniorly3942 Год назад
@@svdminsk интуитивно то понятно, но в том-то и суть, что вместо "хорошие" можно сказать "веса, максимизирующие правдоподобие, далее будем их называть хорошими". Сказать 5 секунд, а вопросов снимет уйму... курс хороший, но такие шероховатости встречаются частенько 😑
@user-zv4qr8ri6c
@user-zv4qr8ri6c Год назад
Косноязычие
@Diabolic9595
@Diabolic9595 Год назад
Что же все так душат их за косноязычие...
Далее
Лекция 2.1: Линейная регрессия.
19:42
Метрики машинного обучения
10:05