Тёмный

Лекция. Полносвязная нейронная сеть 

Deep Learning School
Подписаться 38 тыс.
Просмотров 23 тыс.
50% 1

Занятие ведёт Юрий Яровиков
Ссылка на материалы занятия: docs.google.co...
---
Deep Learning School при ФПМИ МФТИ
Каждые полгода мы запускаем новую итерацию нашего двухсеместрового практического онлайн-курса по глубокому обучению. Наборы проводятся в августе-сентябре и январе-феврале.
За нашими новостями можно следить здесь:
Наш канал в TG: t.me/deep_lear...
Официальный сайт: dls.samcs.ru/ru/
Официальная группа ВК: dlschoo...
Github-репозиторий: github.com/DLS...
Поддержать канал можно на Boosty: boosty.to/deep...
ФПМИ МФТИ
Официальный сайт: mipt.ru/educat...
Магистратура: mipt.ru/educat...
Онлайн-магистратура "Современная комбинаторика": omscmipt.ru/
Онлайн-магистратура "Цифровая экономика": digec.online/
Лаборатории ФПМИ: mipt.ru/educat...

Опубликовано:

 

1 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 19   
@vitaliibardichev4691
@vitaliibardichev4691 2 года назад
33:22 - опечатка в матрице (в правиле производной композиции). В правом верхнем углу должен быть вес w_21, а не w_22.
@wisedoctor1016
@wisedoctor1016 2 года назад
Не хватало такой лекции в прошлом запуске, спасибо!
@yuryyarovikov3323
@yuryyarovikov3323 2 года назад
а вот и она)
@АртемСавельев-о8е
@АртемСавельев-о8е 11 месяцев назад
Вероятность это тоже мера 😂
@thecrazymage
@thecrazymage 2 года назад
9:25 Размерность b не k на 1? 10:15 W_3 разве размерностью не 10 на 100?
@yuryyarovikov3323
@yuryyarovikov3323 2 года назад
Да, оба раза вы правы. 9:25 это косяк презы, а вот 10:15 действительно правильно говорить как вы:) Строчек столько же сколько нейронов на выходе
@amogus_bebra_228
@amogus_bebra_228 3 года назад
Спасибо! Отличный лектор.
@doctorslash3922
@doctorslash3922 2 года назад
Думаю, удобнее записывать произведение якобианов в обратном порядке, чтобы не пришлось использовать транспонирование
@ВладимирЕрманов
@ВладимирЕрманов 3 года назад
класс.
@artemgolomolzin1822
@artemgolomolzin1822 Год назад
Юрий, спасибо! Очень понятные и чистые лекции, по-человечески, без ненужного :)
@alexanderskusnov5119
@alexanderskusnov5119 Год назад
Нехороший слайд на 25': раньше мы через x обозначали вектор входов первого скрытого слоя, а тут они распределены по всем слоям.
@oanovitskij
@oanovitskij 2 года назад
Не понял, что в конце имел в виде лектор. Но не проще объяснить, что если F = Sigmoid(y) векторно, то dF/dy = F •(1-F).T ? Где F вектор-столбец или что-то я не понял?
@tedwinkler9861
@tedwinkler9861 Год назад
На 33:40 ошибка в матрице w: верхний элемент справа w21, а не w22
@AliyaAlmyrzayeva
@AliyaAlmyrzayeva 11 месяцев назад
Очень полезная лекция! Спасибо
@АртемСавельев-о8е
@АртемСавельев-о8е 11 месяцев назад
dz / dx0 нам в принципе не нужен
@maksimlitvinov.9521
@maksimlitvinov.9521 Год назад
мой любимый лектор, спасибо!
@АльбусДамблодр
сложно
@axelotLI
@axelotLI 2 года назад
Ку
Далее
Свадьба Раяна Асланбекова ❤️
00:12
HA-HA-HA-HA 👫 #countryhumans
00:15
Просмотров 552 тыс.
🦊🔥
00:16
Просмотров 302 тыс.
Нейронные сети за 10 минут
9:56
Просмотров 117 тыс.
Свадьба Раяна Асланбекова ❤️
00:12