Тёмный

Лекция 2.1: Линейная регрессия. 

Deep Learning School
Подписаться 37 тыс.
Просмотров 52 тыс.
50% 1

Занятие ведёт Григорий Лелейтнер.
Ссылка на материалы занятия: drive.google.com/drive/folder...
---
Серия "Линейные алгоритмы"
Видео 1. Линейная регрессия: • Лекция 2.1: Линейная р...
Видео 2. LogLoss: • Лекция 2.2: LogLoss.
Видео 3. Логистическая регрессия: • Лекция. Логистическая...
Видео 4. Градиентный спуск: • Лекция. Градиентный сп...
Видео 5. Регуляризация в линейной регрессии: • Лекция. Регуляризация ...
Видео 6. Нормализация: • Лекция 2.6: Нормализация.
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_learning_school_news
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschool_mipt
Github-репозиторий: github.com/DLSchool/dlschool
Поддержать канал можно на Boosty: boosty.to/deeplearningschool
ФПМИ МФТИ
Официальный сайт: mipt.ru/education/departments...
Магистратура: mipt.ru/education/departments...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/education/departments...
Другие записи курсов от Лектория ФИВТ вы можете найти на канале / @stfpmi

Опубликовано:

 

3 окт 2020

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 21   
@aleksandrteplyuk1077
@aleksandrteplyuk1077 3 года назад
Григорий отлично объясняет материал!
@natalias8919
@natalias8919 3 месяца назад
Последняя фраза: "значения элементов обратной матрицы не будут помещаться в память компьютера в переменные" - это шедевр, конечно. Представьте, что студент на экзамене это произнесет, и как его оценку любой преподаватель понизит. Выражайтесь корректно, когда выступаете в роли преподавателя. Арифметическое переполнение или не помещается в память - это разные вещи.
@igorgordeev1904
@igorgordeev1904 3 года назад
Лектор хорошо рассказывает. Мне понравилось.
@IvanIsVladimira
@IvanIsVladimira 2 года назад
А я не понял ничего
@Dribinskaia
@Dribinskaia Год назад
Спасибо большое, это самое понятное видео о функциях потерь!😊
@user-fq7vp2im8w
@user-fq7vp2im8w 2 года назад
Добрый день. Подскажите, пожалуйста, почему при составлении модели мы написали ,что f=x*w, но в выражение метода наименьших квадратов подставляет x(транспонированное)*w?
@dr3amerdream
@dr3amerdream 2 года назад
Дело в том что X большое в первой записи это матрица признаков, а x^T это вектор признаков то есть мы свернули вектора и получили вектор векторов что аналогично матрице
@user-fq7vp2im8w
@user-fq7vp2im8w 2 года назад
@@dr3amerdream Спасибо большое за пояснение!
@vadimosipov2147
@vadimosipov2147 3 года назад
В лекции было сказано про неразрешимость системы уравнений для случая, когда столбцы - признаки линейно зависимы. Получается, мы добавляем новые составные признаки, чтобы дать больше информации (x3=x1*x2) => модель становится неустойчивой в виду того, что есть зависимые признаки, => затем добавляем регуляризацию, чтобы понизить влияние таких признаков. Тогда зачем такие признаки добавлять, может проще взять другие модели?
@user-is3kd9ye9h
@user-is3kd9ye9h 3 года назад
"В лекции было сказано про неразрешимость системы уравнений для случая, когда столбцы - признаки линейно независимы." Не могу найти такого. Можете указать тайминг?
@vadimosipov2147
@vadimosipov2147 3 года назад
@@user-is3kd9ye9h , я ошибся. Имел в виду линейно зависимые. Спасибо. А говорится на 15:24, 18:18
@alexanderskusnov5119
@alexanderskusnov5119 Год назад
Умножение признаков это уже нелинейность (линейность это умножение на константу и сложение с другими признаками).
@jalomic
@jalomic 2 года назад
Возьмем производную для решения. Приравняем её к нулю и получим омегу.. Круто че. Только что это было? Почему к нулю? Для чего производную брать? Ниче не объяснено.
@exp8629
@exp8629 2 года назад
Так это всё было в предыдущих уроках. Чтобы найти локальный минимум (вообще говоря, экстремум, но тут минимум) функции, надо приравнять производную к нулю. Полученное значение аргумента и есть точка минимума (если еще и вторая производная в этой точке меньше нуля), то есть значение параметра, при котором функция принимает наименьшее значение. Если вы пропускаете предыдущие лекции, то говорить "ниче не объяснено" насчет того, что уже точно было, довольно странно
@jalomic
@jalomic 2 года назад
@@exp8629 Ну это всё понятно. Просто сказать что ищем экстремумы функции можно было. Одна фраза сразу бы всё прояснила. Так же еще W Y можно было большими писать. Всё-таки это тоже матрицы хоть и вектора, т.е. всё здесь матрицы, а вектор - это просто матрица вертикальный столбик.. Ато сбивает. Когда я вижу X*y, то как программист я вижу буд-то матрицу умножают просто на число и тяжко
@ekaterinaivanova3816
@ekaterinaivanova3816 2 года назад
@@jalomic у матриц и векторов полужирное начертание
@user-np1ls5xs1c
@user-np1ls5xs1c 3 года назад
Григорий, только не "Омега", а "омЕга"
@coolbrain
@coolbrain 2 года назад
Омега в моем ВУЗЕ учили. ВУЗ нижегородский
@user-uy4lf4in9t
@user-uy4lf4in9t Год назад
Для начала давайте заметим что на слайде написана буква латинского алфавита "дубль в" (W, w (фр. «дубль вэ», англ. «дабл ю») - 23-я буква базового латинского алфавита), а не греческого, которая действительно читается "омЕга" (ударение на второй слог ru.wikipedia.org/wiki/%D0%93%D1%80%D0%B5%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B9_%D0%B0%D0%BB%D1%84%D0%B0%D0%B2%D0%B8%D1%82 )
@user-uy4lf4in9t
@user-uy4lf4in9t Год назад
@@coolbrain а Вы не допускаете что Вас могли неправильно учить? В подобных случаях следует обращаться к первоисточникам. В данном случае обращаться следует к лингвистике, а именно к произношению букв греческого алфавита.
@mistersirlol4368
@mistersirlol4368 3 месяца назад
ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-DJlTs3K0wmo.html )
Далее
Лекция 2.2: LogLoss.
9:08
Просмотров 30 тыс.
Мы будем есть ЭТО через 100 лет?!
00:55