Тёмный

[DeepLearning | видео 4] Формулы обратного распространения 

3Blue1Brown translated by Sciberia
Подписаться 47 тыс.
Просмотров 49 тыс.
50% 1

Оригинальная запись: • Backpropagation calcul...

Опубликовано:

 

23 дек 2020

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 67   
@McCosmo777
@McCosmo777 3 года назад
Единственный канал, который нормально объясняет принципы работы нейросети
@kryptodog1066
@kryptodog1066 3 месяца назад
Уже не единственный, но тоже верно
@McCosmo777
@McCosmo777 3 месяца назад
​@@kryptodog1066, поделитесь ссылками на хороших авторов по теме​
@maboy_a
@maboy_a 3 месяца назад
@@kryptodog1066 подскажи какой ещё появился
@ZERO_TW0
@ZERO_TW0 Год назад
"Здесь довольно много членов" пожалуй теперь я всегда буду использовать именно эту фразу, перед объяснением чего-то сложного)
@muggzzzzz
@muggzzzzz 3 года назад
А разве L это степень, а не просто индекс как было оговорено в начале ролика? Ухо режет это постоянное упоминание "в степени L". Уж лучше говорить "с индексом L" или "с индексом L-1" или "слоя L" и т.д. За исключением этого, материал отличный!
@GuNStaRia
@GuNStaRia Год назад
абсолютно. Если первые три урока были понятны и последовательны, то четвёртый урок просто с ума сводит.
@user-pl2dw8fi3p
@user-pl2dw8fi3p Год назад
Поря менять переводчика или выложить нормальный учебник.
@liha478
@liha478 Год назад
Я спустился в комменты чтобы увидеть этот коммент. Немного ошибся автор перевода, не будем за это в него сильно кидаться тапками)
@DmitryBaranovskiyMrBaranovskyi
@DmitryBaranovskiyMrBaranovskyi 3 года назад
Это было самое долгое десятиминутное видео которое я видел.
@KlimovArtem1
@KlimovArtem1 3 года назад
Вот это уже ещё интереснее и очень наглядно объяснено.
@user-zo2jh8ii1x
@user-zo2jh8ii1x 3 года назад
Господи, как все прекрасно понятно, спасибо!!!!
@tensorfly4508
@tensorfly4508 Год назад
Да, когда индекс называют степенью - это немного путает. Плюс некоторые формулировки ломают мозг, например эта: 5:00 "В случае с последней производной, значение этого малого изменения веса влияет на последний слой, зависящий от того, насколько силён предыдущий слой." - шо? Глянул оригинал. Там как-то яснее сформулировано. Вроде как-то так переводится (во всяком случае для меня это звучит более понятно, может кому другому тоже поможет, кто затупил на этом моменте): 5:00 В случае с последней производной, то, насколько сильно изменится значение в последнем слое при данной небольшой корректировке веса, зависит от того, насколько силён предыдущий нейрон. Учитывая, что это одна из основных мыслей данного видео, стоит быть точнее к формулировкам в данных моментах.
@user-st1rj9jl4y
@user-st1rj9jl4y Год назад
отлично, то что надо. после предыдущего видоса, эта инфа легла отлично!
@user-qd9ur2vp7x
@user-qd9ur2vp7x 3 года назад
Полезный контент, очень жду продолжения!
@PureTuberr
@PureTuberr Месяц назад
Вот, кстати, спустя 3 года оно вышло.
@ambassadornox1919
@ambassadornox1919 Год назад
Спасибо большое за перевод! Я понимаю на англ, но все равно смотрю на русском, чтобы открыть другой вид понимания. Но для тех, кто не понимает англ и даже для меня, это видео очень полезно! Спасибо ещё раз
@gcneochrom
@gcneochrom 5 месяцев назад
Чтобы не путаться, можно говорить не в "а в степени L" а "а-эльное". Но это детали. Объяснено неплохо.
@oshyo2000
@oshyo2000 3 года назад
Вот сейчас уде трудно
@ilyaazin7655
@ilyaazin7655 3 года назад
Эх, вот полгода назад бы этот видос...
@user-qj1il1ns5q
@user-qj1il1ns5q 2 года назад
Это единственное видео с нормальным объяснением. Но в формулу можно добавить небольшие дополнения: В итоговую формулу ошибки можно добавить множитель 0.5 для повышения точности. Также стоило бы уточнить ,то на выходном слое производная веса от общей ошибки
@vertual8097
@vertual8097 Год назад
найдя ошибки, как понять на сколько корректировать веса?
@annaponomarova3472
@annaponomarova3472 3 года назад
сложно, но очень интересно!!!
@psevdonim.erkesha
@psevdonim.erkesha Год назад
Спасибо за труд. Но как-то непривычно слышать вместо "игрек" "уай"
@user-tp1qn2wt6t
@user-tp1qn2wt6t 3 года назад
я бы описал принцип работы нейронных сетей в двух словах, обучения нейронной сети это решения систем нелинейных уравнений, где сами уравнения являются частными производными функциями минимизации
@vdvorezlaya
@vdvorezlaya 8 месяцев назад
7:18 "возмем k как индекс слоя L-1" - в такой формулировке мозги начинают сильно плавиться, потому как k это все таки индекс нейрона (а точнее - активации нейрона) в слое L-1 а не индекс слоя L-1. Тоже касается и индекса j. Вцелом - это самое понятное видео из всех доступных в интернете. Но некоторые моменты с формулировками достаточно сильно спотыкают в понимании.
@user-jr6ue7rk9p
@user-jr6ue7rk9p Год назад
Значит, чтобы обучить, нужно просто найти производную, и к весам добавить небольшую коррекцию?
@user-do5dy3ug3x
@user-do5dy3ug3x 11 месяцев назад
все верно, постоянная (итеративная) корректировка весов в сторону уменьшения итоговой ошибки.
@prosperitystar
@prosperitystar 2 года назад
Neurones that wire together, fire together
@darkfrei2
@darkfrei2 3 года назад
8:34 - а как мы определяем target нодов слоя L-1? Ну, для получения значения ошибки нужно знать к чему нужно стремиться.
@AleckBoronnikov
@AleckBoronnikov 3 года назад
Нас не сколько интересуют целевые значения нейронов L-1 слоя, сколько их ошибки, т.е. отклонения нейронов от целевого значения. Эти отклонения по сути являются значениями частных производных функции ошибок сети (Cost) по выходам нейронов предыдущего слоя. Как вычислить частные производные рассказано в этом видео. Но изложенная методика также позволяет вычислить частные производные по каждому из весов, даже не вычисляя явно ошибки нейронов слоя L-1. Для этого: 1. Представляем функцию ошибок, как функцию весов последнего слоя (L). 2. Затем по цепному правилу вычисляем частные производные по каждому из весов последнего слоя (L) (они нам и нужны) 3. Затем, когда производные по весам вычислены, считаем их константами, а аргументом считаем значения нейронов предыдущего слоя (L-1), которые (как неожиданно) оказываются функциями весов предыдущего слоя (L-1). 4. Математически это выглядит, как удлинившаяся цепочка по правилу дифференцирования сложной функции, но, которая, тем не менее, позволяет теперь нам вычислить частные производные по каждому из весов предыдущего слоя (L-1). Обратите внимание, что для их вычисления нам *не нужно знать в явном виде* ошибки нейронов предыдущего слоя (L-1). Этот процесс можно продолжать до тех пор, пока все частные производные по всем весам не будут вычислены. После этого мы можем делать шаг градиентного спуска.
@user-cn1sd4hg1m
@user-cn1sd4hg1m 3 года назад
@@AleckBoronnikov Здравствуйте, я как понял вы неплохо понимаете тему, не могли в пояснить в аглоритмических примерах) с математикой туговато а в алогитмах бы разобрался, я так понимаю в этих 4 видосах более-менее современное представление о нейронных сетях хотелось бы попробовать реализовать что-то на практике
@AleckBoronnikov
@AleckBoronnikov 3 года назад
@@user-cn1sd4hg1m а в алгоритмах так же математика ) алгоритм - это последовательность действий. математика - это то, что позволяет описать смысл производимых действий.
@user-cn1sd4hg1m
@user-cn1sd4hg1m 3 года назад
@@AleckBoronnikov ну да, это проще чем в формулах
@AleckBoronnikov
@AleckBoronnikov 3 года назад
@@user-cn1sd4hg1m ну так, а какой толк в объяснении алгоритма, если весь смысл в математике )
@lankryf
@lankryf Год назад
Базировано
@user-ww6kh2kb4j
@user-ww6kh2kb4j 11 месяцев назад
Несколько раз поймал себя на мысли что переводчик далек от математики.
@user-gs6of5vv6r
@user-gs6of5vv6r 3 года назад
Жду еще видео по нейронным сетям
@1Hanch
@1Hanch 3 года назад
В оригинальном канале с которого делался перевод больше по нейронным сетям видео нет
@dimaanisovich3034
@dimaanisovich3034 2 года назад
1:52 - зачем в квадрат возводить? Почему просто не отнять y?
@malex81
@malex81 2 года назад
что бы получить положительное число - ошибка не должна быть отрицательной по смыслу. Можно, конечно, взять по модулю, но квадрат лучше дифференцируется.
@daniil2704
@daniil2704 3 года назад
Не знаю как все, но до этой части, было все понятно. Тут как пошли формулы, дичь какая то :)
@user-dw8bf2me2i
@user-dw8bf2me2i Год назад
в чем сила брат? сила в понимании матанализа... пройдут годы, а ты все равно в старой тетради найдешь что-то новое
@namelast8874
@namelast8874 3 месяца назад
Мне странно что кто-то может не знать этого, это же самые азы.
@sergkonov2958
@sergkonov2958 Год назад
Ничего не понятно но очень интересно
@ileowin
@ileowin 3 года назад
сначала произносите что L это индекс.. потом степень.. повнимательней пожалуйста.. кто так это за чистую монету примет!
@AleckBoronnikov
@AleckBoronnikov 3 года назад
трудно переводить то, чего не понимаешь )
@paprikar
@paprikar 2 года назад
@@AleckBoronnikov не трудно, если ты достаточно понимаешь английский, то сможешь без особых проблем делать качественный перевод. Разве что тут можно было и по смыслу гогадаться, что речь не о степенях идёт, ведь об этом явно сказали.....
@user-cr1hc9cj6t
@user-cr1hc9cj6t 2 года назад
И вот на 4м видео я посыпался
@irynatrygub5935
@irynatrygub5935 3 года назад
на 25 секунде небольшая неточность: "а с индексом Л", а не в степени
@vitok-xd9wq
@vitok-xd9wq 2 года назад
Он же сказал, что они являются индексами, только называет их он степенями
@ceo-s
@ceo-s 10 месяцев назад
2:19
@chetesfine9367
@chetesfine9367 3 года назад
Это бесценно !!! Внимайте глупцы )
@paprikar
@paprikar 2 года назад
За перевод, конечно, спасибо, но он далеко не идеален. Например, 3b1b не говорит в исходнике "а в степени L", а просто говорит "a L". И такие погрешности встречаются нередко. Не то, чтобы я нашел что-то ещё контретное, мне просто лень, но мне куда понятнее слушать исходник на английском, не родном для меня языке, чем перевод на русском. Это само по себе уже о чём-то говорит. И это касается не только текста - озвучивание тоже можно улучшить. Несколько трудно воспринимать речь диктора, который не знает, как должным образом озвучить текст, на что сделать акцент и тд, ведь это важная составляющая. Если диктор не может понять тему видео - не беда, ведь можно брать за основу то, как говорит автор.
@abdurahmanibnhatab1181
@abdurahmanibnhatab1181 3 года назад
все хорошо, но как писали ниже L это просто индекс, а не степень
@user-do5dy3ug3x
@user-do5dy3ug3x 11 месяцев назад
Мне кажется, что нейросети гораздо прозаичнее, чем классический ML, где есть свобода выбора моделей и фичинжиринг.
@elenagaprindashvili
@elenagaprindashvili Год назад
помогите я ничего не понимаю
@user-zy7ui3ix1z
@user-zy7ui3ix1z Год назад
Ничего, я тоже. Но это проходит со временем.
@MrKerimos
@MrKerimos Месяц назад
видел видео и понятней по нейросетям. автор сильно погряз в математической закостенелости и не может осознать, что если называть каждую переменную 3 символами, то не удивительно, что ничего не будет понятно. легче было бы дать полные имена каждой переменной, как это принято в программировании
@PhyzmatClass
@PhyzmatClass 2 месяца назад
Зачем так долго объяснять то что нужно взять производную от сложной функции??
@linkernick5379
@linkernick5379 3 года назад
Спасибо за перевод (он, честно говоря, мне не нужен - у меня с английским норм, но уверен, кому-то может очень пригодиться!)
@user-gs1li9mb6s
@user-gs1li9mb6s Год назад
как я понял суть - создать такие математические условия в алгоритме, что бы максимально точно получить ЖЕЛАЕМЫЙ! и заведомо известный результат. Вот это и есть - наука?)
@sanchopansa8956
@sanchopansa8956 Год назад
Да, совершенно верно. Желаемый и заведомо известный результат на обучающее выборке. Если таковая выборка достаточно полна, то нейросеть обучится правильно, и сможет давать верные результаты в тех случаях, с которыми не была знакома. Это и есть наука)
@stanferrari4550
@stanferrari4550 5 месяцев назад
высосоно из пальца, столько буков лишних) наверное специально чтобы народ думал что это сложно
Далее
Backstage or result?😈🔥 @milanaroller
00:12
Просмотров 2,8 млн
Суть матанализа, Глава 1
16:00
Просмотров 476 тыс.
Что такое производная функции
20:29
Backstage or result?😈🔥 @milanaroller
00:12
Просмотров 2,8 млн