Тёмный

Лекция. Transfer Learning 

Deep Learning School
Подписаться 38 тыс.
Просмотров 17 тыс.
50% 1

Опубликовано:

 

3 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 27   
@zlataafanaseva8595
@zlataafanaseva8595 3 года назад
девушка -педагогических гений!
@ivanvrn51
@ivanvrn51 3 года назад
Это лучшее что я просмотрел сотни роликов на эту тему!!! Огромное спасибо и тысяча лайков!!!
@47clere
@47clere 2 года назад
Отличный лектор, все её лекции очень наглядны и понятны)
@АлександрЛисенков-ч7т
@АлександрЛисенков-ч7т 10 месяцев назад
Татьяна великолепна 😍
@НатальяЛинде-ф9ч
@НатальяЛинде-ф9ч 3 месяца назад
Спасибо большое! Замечательная подача информации! 😀😀
@сергейлукин-з1ъ
@сергейлукин-з1ъ 2 года назад
умница, лекции - чудо
@ФеофанНейромонах-п7й
Очень круто!
@alexanderskusnov5119
@alexanderskusnov5119 Год назад
Верх и низ понятия условные, есть представления, где информация идёт снизу вверх.
@КириллБузанов-ъ4й
@КириллБузанов-ъ4й 11 месяцев назад
Огромное спасибо за лекцию, к сожалению не смог найти ссылки на статьи, о которых вы рассказываете. В прикреплённой вами в описание презентации меньше слайдов и нет ссылок. не могли бы вы, пожалуйста, прикрепить ссылки на статьи.
@sakost
@sakost 3 года назад
39:28 регистраторы)
@andreus9118
@andreus9118 3 года назад
спасибо!
@ВладимирДоронин-д3о
Влюбился, пока смотрел)
@alexanderskusnov5119
@alexanderskusnov5119 Год назад
Что означает ваш заголовок "трансферное обучение - это новый черный"? (у автора - драйвер (то бишь двигатель) успеха)
@ИмяФамилия-я5ч
@ИмяФамилия-я5ч 2 года назад
Считаю что алгоритмы беспилотных автомобилей должны проходить дообучение на данных с дорог России так как вероятность возникновения нестандартных ситуаций высок
@vadimosipov2147
@vadimosipov2147 3 года назад
33:18. "У нас нету доступа к весам и архитектуре". Я так понимаю, что у нас есть только выходы - предсказанные классы или вероятности. Тогда я не понимаю, как мы можем использовать предпоследний слой сети? Можно про этот момент подробнее?
@tatianagaintseva8701
@tatianagaintseva8701 3 года назад
Мы можем использовать его выходы иногда. Дело в том, что у многих сетей (например, для распознавания лиц) после обучения на классификацию отрезается последний слой и выходом считается предпоследний слой. И именно его мы можем получать в таком сеттинге
@vadimosipov2147
@vadimosipov2147 3 года назад
@@tatianagaintseva8701 , можно вам написать напрямую в телеге? Это ускорит понимание.
@vadimosipov2147
@vadimosipov2147 3 года назад
@@tatianagaintseva8701 , я не понимаю вас. Вы говорите, что у нас нету доступа к весам и архитектуре модели, т.е. она обученная и то что мы можем получить - это классы либо веса. Как в этом случае мы можем проводить изменения над моделью, отрезая последний слой? В противном случае мы получим доступ к предпоследнему слою, а от него к пред-предпоследнему и так мы получим доступ ко всем весам. Что противоречит тому, что вы утверждаете в лекции.
@tatianagaintseva8701
@tatianagaintseva8701 3 года назад
@@vadimosipov2147 попробую объяснить еще раз. Возьмем сеть, скажем, для распознавания лиц. Когда ее обучают, ее обучают как задачу классификации. Последний слой выдает вероятности, который идут в CE -- все как положено. Когда же ее засовывают в продакшен, последний слой выкидывается. То есть, есть сеть, к весам которой у нас доступа нет. Но мы можем подавать в нее картинки (лица) и получать выход. Выход -- это выход из последнего слоя сети (после откидывая последнего слоя после обучения этот выход станет выходом предпоследнего слоя сети). Вот на этих выходах мы и будем обучать новую сеть
@vadimosipov2147
@vadimosipov2147 3 года назад
@@tatianagaintseva8701 , теперь стало понятно! Это очень необычное положение вещей. Я знаю, что есть платные модели, где доступны только выходы либо модель своя, тогда работа с ней по принципу "делай что хочу", ну или другой команды, но можно договориться.
@sacramentofwilderness6656
@sacramentofwilderness6656 3 года назад
Возник вопрос, если набор данных маленький, а мы берем за основу большую сеть, то если не заморозить веса - велика вероятность переобучения. Но взять сильно много весов, то в недавних работах было показано, что наблюдается явление double descent, что качество модели начинает снова расти на тестовой выборке. В данном случае оно здесь не может наблюдаться?
@tatianagaintseva8701
@tatianagaintseva8701 3 года назад
Дайте ссылку на эти работы, пожалуйста. Вообще это может зависеть от разных параметров. Если задачи далеки друг от друга, то имеет смысл размораживать большее количество весов, потому что веса, обученные на одной задаче, могут выделять фичи, которые не очень полезны на второй. И нужно дообучать почти все.
@vadimosipov2147
@vadimosipov2147 3 года назад
17:20. Пример с NLP очень понятный. А как быть, если случай тяжелее? Если у нас задача, скажем, скоринга, и есть 2 домена: А - 50 признаков, Б - 70 признаков; общих признаков 15, остальные - уникальные. Если я урезаю у новой модели Б часть уникальных признаков, то домен Б - подмножество домена А. Если я оставляю все 70, то пространства пересекаются, но все же разные. И тогда я не понимаю, считать эти пространства разными или нет. И что потом делать с этим, когда я выясню. Я понимаю, что это важно для заморозки слоев, но мы все время тестим, эксперементируем, то что дальше? На что опираться при определении, являются пространства признаков разные или нет? И как эту информацию применять?
@tatianagaintseva8701
@tatianagaintseva8701 3 года назад
В случае задачи скоринга, где в принципе разное количество (то есть разный Шейп) признаков, просто дообучением сети вам не поможет. Для дообучения нужно, чтобы размерности входящих данных совпадали. Ваша задача скоринга - задача классического мл
@ЕвгенийУсанов-ш5к
@ЕвгенийУсанов-ш5к 3 года назад
А полов и так же всего 2, кек =)
Далее
Лекция. Архитектуры CNN
49:57
Просмотров 26 тыс.
Women’s Celebrations + Men’s 😮‍💨
00:20
Просмотров 1,3 млн
LOLLIPOP-SCHUTZ-GADGET 🍭 DAS BRAUCHST DU!
00:28
У КОТЕНКА ПРОБЛЕМА?#cat
00:18
Просмотров 745 тыс.
The U-Net (actually) explained in 10 minutes
10:31
Просмотров 107 тыс.
ML Was Hard Until I Learned These 5 Secrets!
13:11
Просмотров 312 тыс.
Women’s Celebrations + Men’s 😮‍💨
00:20
Просмотров 1,3 млн