Действительно, прекрасный перевод с очень замечательными и интересными занятиями. Как же все таки профессилналы могут просто объяснить. Огромная благодарность, спасибо за уроки ❤❤❤
Если мой вопрос кто-то видит, объясните пожалуйста, на основе чего я должен понять в каких корректировках нуждаются веса? Я не совсем понял из контекста.
Как я понял чем ближе результат возрата к истине, тем ниже он требует смещение, а исходит нужно из данных полного прогона цифр, то от 1 до 9, если 8=8 а 2 = 1 то мы смещаем лишь одно значение нейрона. Наверное так, но тем слишком тяжкая чтоб я мог сказать точно😂
Круто! Почти всё понял, но всё-таки с тем, как метод обратного распространения определяет, что изменять, просто пока сложно переварить. Метод градиентного спуска - понял что делает, но не понял, как. Есть продолжения с этим же переводом (перевод супер!)? Или даже больше по поводу градиентного спуска, и как он делает требуемое? По кусочкам понятно, а в целом - не очень (но в целом про нс очень понятно, молодцы!).
@@VitanXaos такое впечатление, что это делается специально. Прочитал и просмотрел огромное количество материалла, но так и не понял как это работает досконально. Везде много воды (как и в этом видео), которую никто не замечает, ибо не использует это все на практике...
@@horlonangel просто конкретику надо искать на курсах. В курсере машин лёрнинг - там вот да, там конкретика. Просто на ютубе же всё научно-популярное же, нужно развлекать
@@tigdang конкретику вам даст матан - 5 курсов университета. если кажется, что нейронки - это просто, то это не так. внутри сильная математика, которую на пальцах в 4 20-минутных роликах не описать. хотите разораться "досконально" - нужно получать полноценное высшее образование. вопрос только зачем? pytorch, keras и т.п. для того и разработаны, чтобы в такие дебри не лезть. а информации из этой серии роликов должно быть достаточно, чтобы работать с этими готовыми библиотеками.
@@eugene_fed Вообщем да, лучше под капот не лезть, чтобы не свихнуться. pytorch'а хватает, что такое градиентные спуски, обратный подсчёт весов это не нужно знать, да и тяжело разобрать-понять. Пока будешь понимать как это работает, состаришься, а другие уже понаклепают продуктов на основе нейросетей таких, что потом во веки веков не догонишь 😂 Так и будешь вечно догоняющим и ничего не сделавшим. Хотелось бы понять, как это работает, но увы, надо ботаном становиться минимум на 5 лет
А каждый новый вес в векторе градиента вычисляется с помощью формулы: Wn = Wp - a * df/dWp, где Wn - обновленный вес, Wp - предыдущее значение веса, a - скорость спуска, df/dWp - наклон к екстремуму функции ошибки ?
6:32 Я где-то в сети видел видео как несколько нейронов взаимодействуют друг с другом, так вот, они не создают устойчивые связи, а наоборот - постоянно меняют их. Так что да, пока что математическая "нейронка" далека от биологической.
Если кто-то тоже делал нейросеть для распознавания таких цифр, то напишите, пожалуйста, ваши гиперпараметры (батчи и мини-батчи тоже), метод активации нейрона и количество эпох, через которое вы получили более менее обученную нейросеть. Я для диплома делаю почти такую же нейросеть (там ещё латинские буквы) с нуля на C#, и мне бы хотелось с чем-то сравнить результаты обучения, что бы понять - обучение сделано правильно или нет.
@@user-yj3qs3nl9m У меня не было опыта в этой сфере, я взял нейросеть, как тему дипломного проекта. У нее получилась очень низкая точность, к тому же датасет не сбалансирован, хотя рисунки (сделал рисование на winfows forms) при достаточном обучении, иногда распознает. В общем, мне нужно больше опыта, а нейросети больше оптимизации в алгоритме обучения (например параллельные прохождения мини-батчей в нескольких потоках, но я пока хз как это сделать). Но защитить диплом на 5 получилось
А что если нейрону с большим весом поступило число приближенное к 0, а нейрону с малым весом поступило большое число, то получается нейрон с малым весом имел большее влияние на полученный результат?
After Effects это древний продукт. В нём конечно можно такое сделать, но будет очень сложно и дорого. Анимацию инфографики можно делать и в 3D пакетах, например в Blender
Нихера не понятно. Увы. Градиенты, спуски... Это понятно даже воробушку, но представить это на этой сети - не получается. Что, куда? Аа... уже не поспеваешь за роликом и энтропия в голове наслаивается и наслаивается превращаясь в ком "непоняток". Само видео - крутое, качественная анимация, вроде должно дать понимание, представление... но увы, в 45 лет это тяжело осознавать
@@Fakster_Bakster тоже подушню - вы сначала мотивировали тем что объекта больше нет, а затем перешли на то что не смотря на то что больше объекта нет - он оставил значимый след. дак СССР тоже след оставил. и очевидно что СССР-а нет не из-за того что там "думали о космосе"