Тёмный

Что такое нейронные сети и как работает NVIDIA DLSS? 

SelectFrom
Подписаться 2,8 тыс.
Просмотров 6 тыс.
50% 1

Это видео посвящено технологии DLSS от NVIDIA. Здесь вы узнаете о том, что такое нейронные сети и как они помогают в улучшении изображений. На самом деле, за DLSS стоит намного больше, чем просто увеличение разрешения кадра в игре, поэтому для раскрытия этого материала в полной мере и требовалось такое огромное и подробное видео. Приятного просмотра.
Стрим с ответами на вопросы - • Стрим #4 - Разбираемся...
Поддержка канала - www.donationalerts.com/r/sele...
_____________________________________________
Над видео работали:
Сценарий, съёмка, монтаж, графика - Галкин Кирилл
Графика - Предко Александр ( / koalapark )
Графика, монтаж - Михайлов Вячеслав ( / digitallaboratory )
Графика - Шамрай Илья ( / godray )
Обложка - Александров Владимир ( yoggypapdsgn)
Отдельная благодарность за помощь в проработке материала:
Герасимовой Ольге - специалисту по анализу неструктурированных и графовых данных
Козачук Андрею - разработчику на С# и Python
_____________________________________________
Содержание:
00:00 - вступительное слово
01:52 - нужно ли пользователю высокое разрешение
05:42 - сэмплинг, супер-сэмплинг, сглаживание
08:22 - введение в нейронные сети
11:45 - что такое искусственная нейронная сеть
15:10 - что такое нейрон в ИНС
16:48 - как работает нейронная сеть
23:06 - функция активации нейрона
25:35 - матричные вычисления в ИНС
27:17 - что такое тензор
30:07 - что такое обучение нейронной сети
32:53 - метод обратного распространения ошибки
34:05 - минимизация функции ошибки
35:40 - что такое градиентный спуск
39:26 - свёрточные нейронные сети
45:43 - автоэнкодеры
48:42 - как нейронные сети убирают шум на изображении
49:13 - как работает RTX Voice
50:50 - генеративно-состязательные сети
54:23 - скрытое пространство данных в нейросетях
56:43 - сети повышения размерности
58:13 - пространственное масштабирование изображений
01:00:34 - методы интерполяции
01:02:30 - субпиксельная свёртка
01:03:47 - остаточные сети
01:05:24 - пространственно-временное масштабирование кадра
01:15:54 - пояснения про DLSS и DLSS 2.0
01:18:15 - заключение
_____________________________________________
Список источников:
1) Реставрация повреждённых изображений
dspace.spbu.ru/bitstream/1170...
2) 3Blue1Brown - But what is a neural network?
• But what is a neural n...
3) 3Blue1Brown - Gradient descent, how neural networks learn
• Gradient descent, how ...
4) 3Blue1Brown - What is backpropagation really doing?
• What is backpropagatio...
5) selfedu - Автоэнкодеры. Что это и как работают
• Автоэнкодеры. Что это ...
6) Визуализация нейронных сетей (ССЫЛКИ НА ВИЗУАЛИЗАЦИЮ)
www.cs.ryerson.ca/~aharley/vi...
www.cs.ryerson.ca/~aharley/vi...
www.cs.ryerson.ca/~aharley/vi...
7) Dan Fleisch - What's a tensor?
• What's a Tensor?
8) Документация по методу субпиксельной свёртки
arxiv.org/ftp/arxiv/papers/17...
9) Temporal Reprojection Anti-Aliasing in INSIDE
• Temporal Reprojection ...
10) Документация по сети Facebook
research. wp-content/up...
11) Документация по сети DLSS 2.0
behindthepixels.io/assets/file...
12) Общая информация по DLSS 2.0
www.nvidia.com/en-us/geforce/...
Примеры кода на Python для визуализации автоэнкодера взяты с ресурса selfedu.
____________________________________________
Музыка:
RU-vid Audio Library
Patrick Patrikios - Grut
Patrick Patrikios - Oh My
Asher Fulero - September Pass
Soul Searching - Causmic
Dulce Reggaetom - An Jone
Patrick Patrikios - Love Aside
Patrick Patrikios - Where We Go
Patrick Patrikios - New Day
-------------------------------
Creative common:
1) Infraction - Doctor
• Medical Corporate Musi...
2) Mokka - Lunatic
• (No Copyright Music) S...
3) Mokka - Cherry
• (No Copyright Music) E...
4) Mokka - Chrome
• (No Copyright Music) S...
5) Mokka - Space Mind
• (No Copyright Music) S...
#SelectFrom #NVIDIA #DLSS

Наука

Опубликовано:

 

30 июл 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 117   
@SelectFrom
@SelectFrom 3 года назад
Ну, что, вот и видео. Спасибо всем, кто помог мне с этим роликом так или иначе. Спасибо всем, кто ждал и дождался. Больше полугода работы позади. Надеюсь на вашу активность и репосты :)
@user-kd8ce7li9r
@user-kd8ce7li9r 3 года назад
Отлично! Тебе спасибо за видео! Снимаю шляпу перед таким трудолюбием!
@VladislavSamorodov
@VladislavSamorodov 2 года назад
Масштабнейшая работа, жаль мало людей, которые действительно её оценивают. Лучшие видео касаемые виде рендеринга в рунете
@SelectFrom
@SelectFrom 2 года назад
спасибо большое за высокую оценку! На видео действительно ушло много времени и сил
@DIGITAL_LABORATORY.
@DIGITAL_LABORATORY. 3 года назад
О повезло повезло!
@GodRay
@GodRay 3 года назад
Класс! Уже смотрю)
@user-mp3fg1it1q
@user-mp3fg1it1q 3 года назад
Видео которое мы не заслужили, но в котором мы так нуждались
@houseofnhti
@houseofnhti 3 года назад
Господи, это невообразимо. Спасибо большое за контент, лайк авансом, завтра посмотрю полный метр, чтобы 100% удержание было. Так держать!
@SelectFrom
@SelectFrom 3 года назад
Спасибо))
@RavenSquad88
@RavenSquad88 3 года назад
Ооо, какие уважаемые люди тут собрались.)
@user-bg7ei9qr5l
@user-bg7ei9qr5l 3 года назад
маэстро вернулся с эпохальным видеороликом про deep dark learninig supersampling
@arastepan71
@arastepan71 3 года назад
Долгожданный релиз!! Ждал больше, чем новых мстителей
@user-zt5qc1he4o
@user-zt5qc1he4o 3 года назад
Когда посмотрел ролики белорусского Айтишника, этого компьютера и selectfrom: Знаете, я и сам своего рода специалист по нейронным сетям
@vindmax7
@vindmax7 3 года назад
Не смотрев сразу ставлю лайк, данное видео несколько недель делалось. Спасибо за проделанную работу
@qwertyui4526
@qwertyui4526 3 года назад
вроде как полгода
@MrCypher1999
@MrCypher1999 3 года назад
Афигенное видео. Большое спасибо за информацию, просто и доходчиво.
@user-lv5xo6de8p
@user-lv5xo6de8p 3 года назад
Как говорят на кафедре вышмата: 'Вывод из вышесказанного: математика - это узаконенная магия'
@oleksandrkorchmenko6
@oleksandrkorchmenko6 3 года назад
Отличная работа! :)
@nutsalhan8729
@nutsalhan8729 3 года назад
Посмотрел все, было очень интересно. Спасибо за труды!
@myowersname
@myowersname 3 года назад
Работа проделана огромная, молодца!
@rost17
@rost17 3 года назад
Уже поставил лайк, следующий час пройдёт отлично)))
@tutaf
@tutaf 3 года назад
Офигенно получилось, спасибо :)
@dariosfulful
@dariosfulful 3 года назад
Не знаю даже что сказать. Супер.
@user-yr5fq7fd6f
@user-yr5fq7fd6f 2 года назад
Круто, удивляет что такие технологии так доступно стоят)
@aveamd6879
@aveamd6879 3 года назад
Наконец-то. Дождались
@arthur4899
@arthur4899 3 года назад
Ты крут, бро
@Dandi_Simus
@Dandi_Simus 3 года назад
Отличное видео! Автору респект за старания.
@DevilCraftDC
@DevilCraftDC 3 года назад
Очень подробно и интересно, спасибо!
@SandroKornely
@SandroKornely 3 года назад
Ух! смотрел с упоением, но на 53:20 пошел голову в холодную воду окунать!
@user-wn9nb2fm1k
@user-wn9nb2fm1k 3 года назад
За час этого видео узнал больше, чем за 12 лет школы
@Gamespeeper
@Gamespeeper 3 года назад
Отличное видео, очень грамотно все разложено и показано! Однозначно лайк
@irondrag2941
@irondrag2941 3 года назад
Спасибо за видео!)
@pakcodhamope1kathunder833
@pakcodhamope1kathunder833 3 года назад
Я ждал этого 4... Нет 5 тысяч лет
@vidgin
@vidgin 3 года назад
Спасибо! Досмотрел за три подхода :)
@stakanoff4617
@stakanoff4617 3 года назад
Просто офигенно
@fanlu5874
@fanlu5874 3 года назад
Очень информативный ролик
@grinnwatch
@grinnwatch Год назад
Очень круто, жаль на моментах, где показывают всю чудо математики мой мозг протекает. В целом понятно и главное подробно и последовательно. Спасибо за видево 👍👍
@lesgrossman834
@lesgrossman834 3 года назад
Крутотишка крутотейная!
@Mr_Smith_
@Mr_Smith_ 3 года назад
Магия! HadHanter ы уже выехали за тобой ! ))
@metalslayer777
@metalslayer777 3 года назад
Пожалуй слишком сложно для меня
@qwertyui4526
@qwertyui4526 3 года назад
Ля какой контент
@user-kd8ce7li9r
@user-kd8ce7li9r 3 года назад
Работа титаническая, но очень трудно досмотреть до конца. Это же видео для широких масс, а не для математиков-программистов. Надо было по другому сделать, не одним роликом, а целым циклом, причем идти от общего к частному, максимально упрощая материал. Это было бы профитнее и по количеству просмотров, и по подписчикам, и для улучшения понимания. Беда многих людей (канал "Этот компьютер" яркий тому пример), что человек начинает очаровываться сложностью темы, начинает кайфовать сам от себя, когда рассказывает с максимальной дотошностью, с кучей технических терминов, которая неподготовленных слушателей отпугнет, и заменяя привычные слова редкими синонимами (например, вместо слова "людей" использовать слово "персоналии." Ну зачем? Во-первых усложняет понимание, во-вторых, слово "персоналия" не совсем верно использовано). Такое самолюбование нужно подмечать в себе и сразу обрубать. Уже не раз наблюдал такое, у многих преподов в институте, где я учился, был тот же самый грешок. На самом деле нужно обратное: развивать в себе талант рассказывать о сложном просто. Так можно, когда человек разбирается в теме, как рыба в воде.
@SelectFrom
@SelectFrom 3 года назад
Прикол в том, что было желание как раз показать то, что под капотом находится, потому что тут просто по другому никак нормально не объяснить сам процесс тренировки
@SelectFrom
@SelectFrom 3 года назад
Самые сложные части тут это, наверное, с обучением и с автоэнкодером. И вот я думал как это всё проще представить, но начинаешь упрощать, и многие детали сразу теряются. При написании текста приходится искать баланс между более подробным, но сложным для понимания и простым, но поверхностным и простое не всегда лучше бывает. Тут как, сделаешь сильно просто, некоторые скажут, что недостаточно раскрыт вопрос, ведь без этого некоторые процессы не покажешь. К сожалению, многие вещи в мире так устроены. Ричард Фейнман у себя в книге писал, что нужно уметь рассказывать о сложных вещах просто и я стараюсь по возможности это делать. В видео материал ещё относительно просто подан, если по честному, хоть это и не сразу заметно. Источники, которые я смотрел, гораздо больше в математику уходят, особенно часть по автоэнкодеры. Но если бы я не посмотрел их именно в том сложном виде, я бы ничего не понял. Такой контент приходится пересматривать раз за разом, чтобы понять происходящее, а потом уже пытаешься упростить как-то)
@SelectFrom
@SelectFrom 3 года назад
Если остались вопросы по материалу, можно обсудить на стриме в субботу. Я сразу планировал его проводить, ибо тема очень непростая. Возможно даже 2 Стрима придётся делать
@user-kd8ce7li9r
@user-kd8ce7li9r 3 года назад
@SelectFrom Согласен, делать сложное простым - задачка весьма нетривиальная. Думаю, цикл небольших (скажем по 10 минут) роликов на эту тему пережевывался и усвоялся бы легче.
@SelectFrom
@SelectFrom 3 года назад
​@@user-kd8ce7li9r думаю, что да, но тут есть другая проблема) Я уже много раз поднимал вопрос по этому поводу у себя в голове и каждый раз приходил к тому, что лучше один большой ролик. Его проще добавлять на внешние ресурсы, чем плейлисты и в принципе удобнее с одним роликом, ибо всё в одном месте. В группе Digital Laboratory я проводил на эту тему опрос - большинство людей за один большой ролик. Если как-нибудь буду делать ещё такую большую тему, попробую разбить её на разные ролики. Посмотрим что из этого выйдет) Не проверишь - не поймёшь, как говорится =) Ах да, и ещё забыл написать кое что. Есть такой канал-миллионик - Droider. Они как-то делали 10-тиминутный видос про нейронные сети, где пытались упростить материал для своей аудитории. При этом получился любопытный результат - люди сказали, что этого мало и надо больше про нейронки рассказывать. Поскольку они брали за основу один из тех источников, что и я, в части про сами сети и обучение, можно как раз взять и сравнить напрямую где понятнее рассказано. Да, Droider действительно смогли сильно сжать и упростить материал, но при этом он получился очень поверхностным как по мне. После просмотра осталось очень много вопросов лично у меня и я начал копать эту тему глубже. Моё желание рассказать подробнее как раз вызывают такие ролики по большей части, потому что они оставляют много пробелов в теме и сложно уловить связь между отдельными аспектами. Хочется одновременно и попроще рассказать, чем на профильных ресурсах, но и не слишком просто в то же время, чтобы не осталось пробелов. А что касается всяких слов типа "ибо" или "персоналии", которое не везде уместно, конечно, то это просто моя любовь к родному языку. Мне очень нравится иногда вставлять в речь слова, которые мы не используем каждый день. Тут можно привести аналогию с программистами, когда какие-то фишечки в коде называют "синтаксическим сахаром". Имеется в виду, что код можно было бы написать проще и базовыми способами, но тонкое знание отдельных моментов помогает уложить код из 5-7 строк, например, в одну. Типа, работало бы так и так, но ты поупражнялся и сделал красивее. Как-то так. Разумеется, сколько людей, столько и мнений и я могу быть неправ, как и любой смертный))
@Yoggypap
@Yoggypap 3 года назад
С релизом!
@GodRay
@GodRay 3 года назад
За превью небось снова сто долларов содрал!
@Yoggypap
@Yoggypap 3 года назад
@@GodRay 150!
@Hayk97
@Hayk97 3 года назад
Бля, на улице жарко, придется смотреть видос без чая(
@Digital_Laboratory_Live
@Digital_Laboratory_Live 3 года назад
Налей пепси
@Al_Nec
@Al_Nec 3 года назад
Наоборот в жару пьют горячее, обычно зеленый чай. В жару он холодит, в холод - согревает. На Востоке и Средней Азии большую часть года стоит жаркая погода, вынуждая потреблять много жидкости. Ислам запрещает употребление спиртных напитков, что привело к отсутствию традиции их распития в мусульманских странах. Для утоления жажды самым популярным напитком в этих местах является зелёный чай. Такие места распития чая называются чайхана.
@Hayk97
@Hayk97 3 года назад
@@Al_Nec мне от горячего становится только хуже
@DIGITAL_LABORATORY.
@DIGITAL_LABORATORY. 3 года назад
Шо сказатэ це фантастычно
@MoDErahN8Lynx
@MoDErahN8Lynx 3 года назад
И все-таки Навье-Стокс, не stonks )
@gamingon1327
@gamingon1327 3 года назад
Победили бы еще этот жуткий гостинг. В том же киберпанке просто ужас (даже с заменой dll на 2.2.6).
@costea.
@costea. 3 года назад
Тыщя просмотров а коментов пшик. Надо людей просить задавать вопросы для стрима, неужели всем все понятно. Обычно нет вопросов к преподу когда нихера непонятно. Мне мало про длсс, Очевидно что текущие чипы надо смещать в рт блоки и тензорные ядра, старые карты тормозят развитие
@SelectFrom
@SelectFrom 3 года назад
7 августа буду устраивать большой стрим с ответами на вопросы. Анонсирую как раз сегодня-завтра :)
@Digital_Laboratory_Live
@Digital_Laboratory_Live 2 года назад
Потерянное видео в закромах ютаба )))
@costea.
@costea. 3 года назад
Теоретически будь мониторы как в электроных читалках это решилобы проблему пикселей. А если делать пиксели круглыми? Это чуток сгладило бы алиасинг
@SelectFrom
@SelectFrom 3 года назад
Насчёт круглых пикселей - хороший вопрос. Сам задумывался над этим. Пока о подобных наработках ничего не слышал)
@ariseCuts
@ariseCuts 3 года назад
🤤🤤🤤🤤🤤🤤🤤🤤🤤🤤🤤
@costea.
@costea. 3 года назад
Свертка напомнила работу ЭЛТ монитора. Пример фейсбука два изображения не сказано слева и справа разрешение и цель как то пролетели мимо внимания. Про работу мозга можно было не говорить, это другое и не достаточно изучено чтоб с нейронками сравнивать. Все же в мозге нейронка реальная трехмерная. Сколько весят файлы длсс для игр, какие они и где расположены. (Размер в новой версии не должен особо расти) Дрожание дает эфект мыла? Или что мылит в длсс? Количество кадров может улучшать работу длсс? Можно ли утверждать что длсс это сглаживание а апскеил лишь побочный эфект? Можно тогда входное и выходное разрешение сделать равным и сглаживание будет аппаратным и для 1080р не будет падения прозводительности в отличие от других методов?
@SelectFrom
@SelectFrom 3 года назад
По вопросам: 1) Где расположены файлы DLSS - C:\ProgramData\NVIDIA\NGX\models\dlss. Размер можно посмотреть там как раз 2) Мыло возникает вследствие интерполяции значений пикселей кадра низкого разрешения в процессе создания карт высокого разрешения. В ролике это как раз можно увидеть в разделе "интерполяция" на 1:01:43 3) "Дрожание" камеры нужно для того, чтобы в нескольких кадрах выполнить сэмплирование в разных позициях центроида пикселя. 4) В названии DLSS кроется словосочетание супер-сэмплинг, что и есть рендер в большем разрешении. Супер-сэмплинг - это одна из двух основных функций, ради которых эту технологию и придумали. Суть в том, чтобы уменьшить нагрузку на видеокарту путём снижения разрешения рендера, а затем восстановить кадр до изначального разрешения. 5) "Можно тогда входное и выходное разрешение сделать равными?" - в теории ничего не мешает, но такого параметра не предусмотрено. Думаю, если NVIDIA посчитает нужным, такой вариант дадут пользователям.
@sablindn
@sablindn Год назад
Это богемно
@ytrbqdkflbvbhy
@ytrbqdkflbvbhy 3 года назад
Жесть: полтора часа видик
@wolikmich7518
@wolikmich7518 3 года назад
В DLSS одна проблема, он не улучшает качество картинки. А лишь "повышает фпс" Другими словами, снижает необходимую мощность карты для рендера картинки. Понятно можно запустить игру в 8К с DLSS ... :)
@SelectFrom
@SelectFrom 3 года назад
И да, и нет. Качество картинки всё таки улучшается, ведь она восстанавливается из более низкого разрешения. Ну а если в целом, то да, это не сглаживание в чистом виде
@24Lurker
@24Lurker 3 года назад
так долго ждал выпуск, а в итоге не только не понял нихрена, дак и досмотреть до конца не смог... слишком сложно. надо было разбивать на несколько частей.
@SelectFrom
@SelectFrom 3 года назад
тема сложная, ничего страшного. В субботу будет стрим в 15:30, где я буду на вопросы отвечать. Если есть возможность, подходи - обсудим)
@BIOSKillerBIOSKiller
@BIOSKillerBIOSKiller 3 года назад
Давайте расскажем как работает NVidia DLSS, но на примере другого открытого кода))))) Ха-ха-ха узнаю уши жирафа)))) Ну по крайне мере хотя бы пытались объяснить))))
@SelectFrom
@SelectFrom 3 года назад
Информации по DLSS от NVidia просто нет в открытом доступе, и не уверен, что в ближайшее время она появится. Не думаю, что архитектура NVIDIA сильно отличается от представленного командой Facebook, потому что способ реконструкции сам по себе очень похож на ТАА. Да, у NVIDIA больше оптимизации алгоритмической под их устройства, но вряд ли между сетями большие отличия имеются
@SergVrn
@SergVrn 2 года назад
Даже если интересуешься технологиями это невозможно досмотреть, слищком длинное видео.
@SelectFrom
@SelectFrom 2 года назад
Некоторые зрители смотрели в несколько подходов. Ничего не поделать, тема такая - в 5 минут не уложить
@Digital_Laboratory_Live
@Digital_Laboratory_Live 2 года назад
Я досмотрел
@_NEUROX_
@_NEUROX_ Год назад
@@Digital_Laboratory_Live досмотреть кто угодно может, но понять...
@Digital_Laboratory_Live
@Digital_Laboratory_Live Год назад
@@_NEUROX_ я участвовал в создании...
@bigsponsor
@bigsponsor 3 года назад
Послушал, мда и вот такая бредятина вталкивается в мозг молодежи? Биологический нейрон намного сложнее и универсальное чем то подобие которое называют в компьютерном мире когда заводят речь про нейронные сети. Биологический нейрон имеет биоэлектрический сигнал, это не 0 или 1, это набор: нуклеиновых кислот, белки, жиры и т.д. которые передают сигнал через механизм метаболизма, т.е. мозг с каждым импульсом еще и питает отдельный нейрон. Прочтите пару книг того же профессора Савельева или Бехтерева про устройства мозга, чтобы хоть немного понимать. Далее, про компьютерную так называемую нейросеть. Это просто структурированная, взаимосвязанная база паттернов (алгоритмам Маркова привет). Еще в СССР советские программисты написали алгоритмы распознавания изображения, которые при развале СССР из научных НИИ украли смышленые ребята, создали компанию Abby и начали продавать программу Finereader использующую данные алгоритмы, которой успешно пользовался и пользуется весь мир, когда сканирует и распознает текст. Сегодня мощности позволяют, поэтому можно создавать огромные базы различных паттернов. Но как например в 1994г. имея всего 8 мб. оперативной памяти или если брать начало 90-х, когда в советских НИИ разработали алгоритмы распознавания текста и того меньше загрузить огромную базу паттернов в оперативную память чтобы с ней быстро работать? Но советские математики смогли придумать другой подход. А сегодня да, имея в распоряжении 4 гигабайта оперативной памяти или 64, 128 гигабайт или 1 терабайт, загружай трилиарды изображений, нужное из этой базы обязательно найдётся. И нет никакой обучаемости, есть механизм вероятностей, кто изучал мат. анализ и теорию вероятностей знает. Вы просто наталкиваете в базу огромное количество изображений и адаптируете алгоритмы на распознавание определенного паттерна. Любая так называемая нейронная сеть разбивается об простой эксперимент, где с помощью визуального шума искажают лицо матери и дают его нейронной сети и 5-ти летнему ребенку данной матери. Так вот ребенок чётко узнаёт свою мать, а нейронная сеть не может. Если в базе нет определенного паттерна, сеть не может определить, он не способна генерировать то, чего не существует, т.е. у неё отсутствует фантазия в отличии от ребёнка.
@SelectFrom
@SelectFrom 3 года назад
1) где я говорил о том, что нейрон искусственной сети эквивалентен биологическому нейрону? Я провёл некоторую аналогию, весьма понятную, как по мне, но не более. 2) какое отношение имеет OCR к нейронным сетям и в частности к свёрточным нейронным сетям, которые являются предметом рассмотрения в этом видео? 3) какое отношение имеет распознавание лица на зашумлённом изображении, когда речь в видео идёт о распознавании цифр, повышении размерности изображений и убиранию шумов с изображений? 4) совершенно не понял к чему вся эта история о советских учёных, когда речь шла о создателях теории о нейронных сетях и конкретных моделей
@SelectFrom
@SelectFrom 3 года назад
Также я не понимаю в чём претензии к термину "обучение". В видео конкретно говорится о том, что именно понимается под обучением. Это всего лишь скармливание сети большого количества данных, которое способствует оптимизации и корректированию связей. После просмотра должно быть понятно, что это не является обучением в классическом понимании этого слова.
@bigsponsor
@bigsponsor 3 года назад
@@SelectFrom "Также я не понимаю в чём претензии к термину "обучение"." Я пояснил почему в целом неверный посыл. Т.е. люди без опыта и понимания не смогут понять что им дают неверную установку. Если вы хотели объяснить своей аудитории про суть нейросетей, так нужно было разобраться хотя-бы в основах, а то сейчас по данной тематике культивируют столько мусора и откровенного бреда. Так вот, почему это не обучение? Это скорее адаптация, вы адаптируете информационную структуру данных под ваши конкретные задачи. Обучение немного сложнее, это уже способность к синтезу информации. Так называемая нейросеть ничего не синтезирует, она делает только то, что в неё заложено алгоритмами. Если бы она в процессе могла компилировать свой собственный код и менять структуру и т.д. возможно это был уже некий новый уровень, но текущие сети пусть даже и супер-пупер многоуровневые со сложной топологией просто обрабатывают данные которые в них заложены и выдают их по запросу.
@bigsponsor
@bigsponsor 3 года назад
@@SelectFrom 1. Вы приводили в пример структуру биологического нейрона, пересмотрите своё видео еще раз. 2. Это вообще не понял к чему? 3. Вы показывали примеры работы так называемых нейросетей с изображениями и объясняли их преимущества, я вам привёл контраргумент, что они работают не настолько хорошо как вам показалось. 4. Потому советские учёные, особенно математики внесли огромный вклад для всей этой темы с нейросетями и искусственным интеллектом. Называлось данное направление - Кибернетика. И сегодня ничего нового не придумали, все модели, алгоритмы это всё из 20-го века, просто сегодня технические возможности позволяют реализовать весь тот интеллектуальный потенциал.
@SelectFrom
@SelectFrom 3 года назад
@@bigsponsor возможно, стоило сделать пояснение в этом моменте про "обучение" сети, не спорю, но в целом это никак не меняет сути. Термин "обучение" в данном случае косвенно, но отражает суть, потому как компьютер обучается решать конкретную задачу на приведённых примерах. Да и в зарубежных источниках явно фигурирует термин "learning". Он больше для простоты понимания и обозначения процесса работы математической системы одним словом. Что касается синтеза изображений. GAN-сети ведь умеют синтезировать новые изображения, пусть на основе существующих, но умеют же. Расширенные вариационные автоэнкодеры позволяют указать метки классов для объектов, которые вы хотите видеть на изображении, и ИНС воспроизводит это. Да, для этого всё ещё нужна большая база данных для тренировки сети, но задача-то такая решается
Далее
Чистка пляжа с золотом
00:49
Просмотров 345 тыс.
Чего ожидать от HTTP/3 + Go
51:07
Просмотров 7 тыс.
Внутри CPU: Intel 8086
17:56
Просмотров 69 тыс.
The moment we stopped understanding AI [AlexNet]
17:38
Просмотров 814 тыс.