Тёмный

Введение в Deep Learning | Григорий Сапунов (Intento) 

Bioinformatics Institute | Институт биоинформатики
Просмотров 56 тыс.
50% 1

Летняя школа по биоинформатике: bioinformaticsinstitute.ru/sum...
Основы нейросетей. Виды нейросетей (полносвязные нейросети, автоэнкодеры, свёрточные, рекуррентные) и решаемые ими задачи. Современное состояние области и тренды.
Институт биоинформатики: bioinf.me
Слайды: bioinformaticsinstitute.ru/sum...

Опубликовано:

 

1 авг 2017

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 41   
@palyura1162
@palyura1162 6 лет назад
Спасибо. Все так класно объясняет. Побольше бы таких видео.
@TheMitPitt
@TheMitPitt 4 года назад
Комментаторы к этому видео пытаются обучить нейросеть?
@eRatube
@eRatube 2 года назад
Это нейросети комментировали)
@ivanesan5235
@ivanesan5235 3 года назад
Очень доступно и интересно! Спасибо за контент!
@klev1983
@klev1983 6 лет назад
Нормально так пробежались по машинному обучению
@elenasaht1379
@elenasaht1379 4 года назад
Прочла комментарии. Искренне захотелось верить, что сидящие в зале были другими (сложно, много матана...прочее). А лекция вполне хороша для вводного обзора
@warnalexfrost605
@warnalexfrost605 3 года назад
Сложно слооожно , много математики Зверский доклад Огонь
@scariestscary1090
@scariestscary1090 3 года назад
Не знаю, кто как, но для меня изучающего нейросети в течении 3 часов , лекция очень понятна))) Осталось научить сеть прописывать/переписывать себе новые блоки и архитектуруи и организовать внутри себя нейронные связки памяти.
@user-xb7uu2ne8i
@user-xb7uu2ne8i 2 года назад
vk.com/id531617676 сеть покажу
@user-yc5nq4xr8b
@user-yc5nq4xr8b 4 месяца назад
Респект
@artemykrylov
@artemykrylov Год назад
Слайды: edu.bioinf.me/files/vvedenie_v_deep_learning.pdf
@daniiltroshkov6081
@daniiltroshkov6081 2 года назад
Хорошая лекция! Как я понял, четыре года прошло. Хочется еще апдейта со State Of Art. Если есть у кого линки на похожий современный материал, делитесь, плиз...
@johnsfppanthonyvtw1387
@johnsfppanthonyvtw1387 4 года назад
Нормально так пробежались по машинному обучению Сложно сложно , мнооого математики
@user-jf6li8mn3l
@user-jf6li8mn3l 5 лет назад
Спасибо за видео. Не смотря на продолжительность, смотрится легко. Выложите пожалуйста презентацию иди хотя бы ссылки из неё.
@bioinforussia
@bioinforussia 5 лет назад
Ссылки на все слады школы 2017: bioinformaticsinstitute.ru/summer2017/slides
@user-jf6li8mn3l
@user-jf6li8mn3l 5 лет назад
Институт биоинформатики Спасибо большое!
@loradolores
@loradolores 2 года назад
@@bioinforussia Эта ссылка уже устарела. Не могли бы обновить?
@artemykrylov
@artemykrylov Год назад
@@loradolores edu.bioinf.me/files/vvedenie_v_deep_learning.pdf
@illuzkameluz
@illuzkameluz 4 года назад
Зверский доклад
@valerykomarov8841
@valerykomarov8841 2 года назад
Хх
@maratzvizdets1208
@maratzvizdets1208 4 года назад
я знаю кун-фу! А вообще нормально так пробежались по машинному обучению, хоть и сложно сложно , мнооого математики. Про что вообще лекция была?
@s.nielsenkeith3684
@s.nielsenkeith3684 4 года назад
Сложно сложно , мнооого математики Зверский доклад просмотрела 40 минут и ничего не поняла
@elenasaht1379
@elenasaht1379 4 года назад
Вроде уровня первого курса любого техничего вуза.
@user-jd8ml1wr2e
@user-jd8ml1wr2e 2 года назад
ну я этот пример где-то слышал, про отличие кошки от собаки для трёх летнего ребёнка, но там вроде речь была про простоту запоминания, то-есть, трёхлетнему покажи на пару сек и он запомнит и скорее всего распознает другой вид кошки, а компьютеру обучаться долго надо и иметь не одну картинку а целый дата сет. Но если про скорость говорить, то да это понятие не соответствует действительности, так как всё зависит от ресурсов вычислительных
@a.bibbspatricia2839
@a.bibbspatricia2839 4 года назад
Сложно сложно , мнооого математики Зверский доклад
@sashausb1
@sashausb1 5 лет назад
просмотрела 40 минут и ничего не поняла
@ZugDuk
@ZugDuk 4 года назад
Я не понял, нейросеть умеет считать? А она умеет рисовать график? Умеет рисовать линии на графике? Про что вообще лекция была?
@user-zy7ui3ix1z
@user-zy7ui3ix1z Год назад
А зачем? Графики прекрасно рисует обычный алгоритм.
@mrGrey2009
@mrGrey2009 3 года назад
Сложно стригся 40 минут, пробежался по зверям, множественная математика
@relicthominide5546
@relicthominide5546 6 лет назад
Мой процессор восьмилетней давности в два раза медленнее чем такой же в современной линейке. Какие 1000 раз за 10 лет?) Закон Мура давно не работает.
@bnbr8100
@bnbr8100 6 лет назад
внимательней слушайте, процессор и вычислительные мощности понятия не совсем идентичные
@relicthominide5546
@relicthominide5546 6 лет назад
А что, вычисления уже чем-то другим производятся? В видеокартах - не процессор? DSP - не процессор?)) Упомянутый закон Мура не работает даже в буквальном изложении, как количество транзисторов на площадь, это факт. А уж в практическом тем более.
@bnbr8100
@bnbr8100 6 лет назад
Почитайте про архитектуры процессоров, много полезного узнаете. Ваш процессор и к примеру специализированный ASIC под нейронки, недавно произведенный гуглами TPU, нельзя "сравнивать в лоб". Выщислительная мощность при равном колличестве транзисторов на кристалле будет существенно разная для разных задач. Или взять программируемые плис, их процессором в обывательском понятии вообще назвать нельзя. То, что плотность, с которой вытравливают на подложках транзисторы на кристалах микросхем уперлась в несколько нанометров, не говорит о том, что достигнут предел развития процессоров. Закон мура не о технологии производства. Просто Мур в свое время интерпретировал эмпирическую зависимость производительности по колличеству транзисторов, так и было - росла плотность - росла частота - росла производительность. Других идей не было у него. Зависимость осталась, но интерпретировать ее уже надо по другому, а название осталось.
@relicthominide5546
@relicthominide5546 6 лет назад
Нет уж попрошу, Закон Мура - это закон Мура. Он не работает. Не надо сову на глобус натягивать, как бы мы теперь имеем в виду под законом Мура что-то другое, а не закон Мура. Математическая производительность процессоров также почти не выросла за последние десять лет, ни о какой 1000 раз уж точно тут речи не идет. А что мы теперь на этой математической мощности иногда считаем что-то другое и по-другому, на других алгоритмах и при помощи специализированных архитектур, которые выполняют какие-то задачи лучше чем процессоры общего назначения - это совсем другой вопрос, который к закону Мура ровным счетом никакого отноршения не имеет. Так что это вы лучше пойдите что-нибудь почитайте))
@bnbr8100
@bnbr8100 6 лет назад
Походу что-то объяснять человеку нет смысла, если он черное видит белым. Те вычисления, которые мог провести ваш процессор имея в своей структуре N транзисторов, не медленнее в 2 раза процессора абсолютно другой архитектуры имеющего 2*N транзисторов. Так понятнее? Вычислительные мощности растут по закону мура а не мощность вычислений частного случая реализованного на основе какого либо одного процессора. Лектор имел ввиду это, говоря что те алгоритмы которые еще сейчас не представляется возможным общитать, уже через десять лет будут реализовываться на обычном персональном компьютере.
Далее
UZmir & Mira - Qani qani (Snippet)
00:26
Просмотров 919 тыс.
Заметили?
00:11
Просмотров 2,9 млн
Лекция. Архитектуры CNN
49:57
Просмотров 25 тыс.
15x4 - 15 минут о теории хаоса
22:19
Просмотров 132 тыс.
UZmir & Mira - Qani qani (Snippet)
00:26
Просмотров 919 тыс.