Тёмный

Нейронные сети. 8. Технология обучения сети. Часть 1 

Peter Radko [CMTV]
Подписаться 46 тыс.
Просмотров 52 тыс.
50% 1

Конспект/Задания/Печеньки - neuralnet.info/
8 урок по изучению нейронных сетей.

Опубликовано:

 

25 июл 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 45   
@Art_ZhoRa
@Art_ZhoRa 5 лет назад
преподавательские способности автора на высоте
@user-hd9re2nz7t
@user-hd9re2nz7t 9 лет назад
1) Локальные оптимумы - проблема эволюционных алгоритмов. Почитай еще про генетический алгоритм. Понравится. 2)Один весовой коэффициент - одномерный случай. Оптимизация одномерной задачи существует. Строятся сети, но лишь для проверки работоспособности. Так как для оптимизации одномерного случая есть тотже метод Фибоначчи или золотое сечение. 3)Кенгуру - это круто. Но удобней было бы показать, что весовой коэффициент - градиент в обратную сторону, а координата - аксон, который входит в дендрит. И что увеличение того или другого приводит к соответствующим результатам. 4) Градиент - это хоть и вышмат, но для одномерного случая это изи производная, которую проходят в школе:) 5) Многие не любят математику за то, что она такая сухая и абстрактная. Не настраивай людей так. Не нужно говорить, что вышмат - это сложно. Покажи формулу, объясни что представляют операнды и люди скажут "ого! и этого я раньше боялся?!" абстракция кенгурятиной уж очень высокая. 6) Красавчик. Пока есть люди, которые пытаются разбираться в революционных вещах, не все потеряно:)
@rusppc
@rusppc 8 лет назад
Тем кто хочет математики - это к Воронцову ) А здесь доступно для тех у кого с математикой не ахти
@user-hs5ix8rk7x
@user-hs5ix8rk7x 5 лет назад
Только хотел все расписать по полочкам с точки зрения математики, но ты разложил все до меня. Проблема детерминированных алгоритмов для неунимодаальных функций - основная проблема поиска глобального оптимума.
@user-rb4yf1xb3r
@user-rb4yf1xb3r 2 месяца назад
Благодарю вас!
@olegstm3289
@olegstm3289 9 лет назад
Жду следующих уроков!
@user-zf3ub2fz3b
@user-zf3ub2fz3b 8 лет назад
Отличный курс! Большое спасибо автору! Однако, к этому уроку есть замечание. Дело в том, что в двухмерном случае (для одного входа) у нас есть функция W=f(X). Когда мы переходим к трехмерному варианту, это на самом деле не функция для двух входов. Это вполне себе функция для множества входов, то есть функция W=f(X,Y), где: W- погрешность, X-значение весового коэффициента, Y-номер входа. Таким образом, для описания поверхности ошибки сети, у которой входов больше двух не требуется многомерного пространства, а достаточно трехмерного. Я конечно, могу ошибаться, но в таком случае мне не понятно, откуда берутся оси со значениями на входах, о них ничего не сказано при описании модели с одним входом. Все остальное понятно и отлично излагается!
@warmanlv
@warmanlv 8 лет назад
Меня тоже этот момент смутил. Поддержу в мнении, что автор ошибся в плане "поверхности ошибки" и на картинке указано 60 "нейронов", а не как не 2. В случае с 2 "нейронами" поверхность была очень простой, а если точнее выглядела как "лента" с разным уровнем "краев".
@lexxvoronich
@lexxvoronich 7 лет назад
Что за чушь. Ваш вариант всего лишь предоставляет дискретный набор разнородных кривых, не соответствующих критерию непрерывности. И где здесь поверхность?
@user-zf3ub2fz3b
@user-zf3ub2fz3b 7 лет назад
Александр Воронич действительно, Вы правы это будет дискретный набор двумерных кривых. Но это не отменяет моего вопроса о многомерности.
@lexxvoronich
@lexxvoronich 7 лет назад
Не будучи математиком, все же смею сделать некоторые допущения: Если мы говорим о поверхности ошибки, на которой ищем локальные минимумы, (с помощью тех самых несчастных кенгурят), то подразумеваем непрерывность поверхности. Предложенная вами сущность - сиречь набор несвязанных дискретных кривых - просто сферический конь в вакууме, не имеющий полезности для решения задачи нахождения минимума погрешности для обучения нейросети. Но это лишь мое мнение, а вот цитата с вики: "Обратное распространение использует разновидность градиентного спуска, то есть осуществляет спуск вниз по поверхности ошибки, непрерывно подстраивая веса в направлении к минимуму. Поверхность ошибки сложной сети сильно изрезана и состоит из холмов, долин, складок и оврагов В ПРОСТРАНСТВЕ ВЫСОКОЙ РАЗМЕРНОСТИ. Сеть может попасть в локальный минимум (неглубокую долину), когда рядом имеется гораздо более глубокий минимум. В точке локального минимума все направления ведут вверх, и сеть неспособна из него выбраться. Основную трудность при обучении нейронных сетей составляют как раз методы выхода из локальных минимумов: каждый раз выходя из локального минимума снова ищется следующий локальный минимум тем же методом обратного распространения ошибки до тех пор, пока найти из него выход уже не удаётся. " ru.wikipedia.org/wiki/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%BE%D0%B1%D1%80%D0%B0%D1%82%D0%BD%D0%BE%D0%B3%D0%BE_%D1%80%D0%B0%D1%81%D0%BF%D1%80%D0%BE%D1%81%D1%82%D1%80%D0%B0%D0%BD%D0%B5%D0%BD%D0%B8%D1%8F_%D0%BE%D1%88%D0%B8%D0%B1%D0%BA%D0%B8
@user-zf3ub2fz3b
@user-zf3ub2fz3b 7 лет назад
Александр Воронич понял, спасибо!
@smartme4643
@smartme4643 9 лет назад
а где ты всё это изучаешь, дай пару первоисточноков, так сказать)
@Razumist-Pohuist
@Razumist-Pohuist 8 лет назад
Если ты не знаешь где всё это найти, то ты ленивое существо, которое хочет чтобы прям на блюдечке все преподнесли
@ИванИванов123
@ИванИванов123 6 лет назад
Я такой же. Дайте первоисточник!
@VasArkady
@VasArkady 6 лет назад
РАЗУМИСТ, Одно дело искать самому и другое дело, когда тебе говорят уже знающие люди, это разные вещи. Но автор поста все равно ленивое существо)
@user-ss7bm2id5c
@user-ss7bm2id5c 4 года назад
скажи пожалуйста,а веса для каждого слоя задаются разные,или для всех слоев должны быть одинаковые?
@Dzabiev
@Dzabiev 9 лет назад
ахахах, кенгуру зачетные :D
@Neformalchik91
@Neformalchik91 8 лет назад
Не работает сайт, открываю из Алматы
@Philip_Just
@Philip_Just 6 лет назад
чудеса
@polz0vatele
@polz0vatele 7 лет назад
я тоже применяю метод найскорейшего спуска, только в момент интима
@user-mp1ce7oq4d
@user-mp1ce7oq4d 7 лет назад
главное долго не задерживаться в локальных минимумах!
@vladyslavtymofieiev4213
@vladyslavtymofieiev4213 6 лет назад
Прочитал этот комментарий до того как начал смотреть видео. Теперь не могу нормально смотреть видео.
@apdgslfhsodbna
@apdgslfhsodbna 6 лет назад
Это черезвычайно важная информация
@vitaliymaevskiy5977
@vitaliymaevskiy5977 6 лет назад
Ах почему нам в универе производную с помощью кенгуру не объясняли, я б с первого раза все понял бы! =)
@alexmcfly1976
@alexmcfly1976 8 лет назад
по приблизительным подсчетам около 86 миллиардов нейронов в головном мозге у здорового среднестатистического человека ))) а не триллионов ) хотя и так сойдет )
@SERG__ZV
@SERG__ZV 5 лет назад
Забавный факт. Ты обучаешь людей обучать нейронные сети) Такой дедушка учитель))
@VitaliyShabalin
@VitaliyShabalin 8 лет назад
Измученный слепой кенгурёнок, посвятивший всю свою жизнь прыжкам по многомерному пространству в поисках минимальной погрешности хочет спросить: почему бы не запоминать минимальную погрешность и не проверять её при каждой итерации обучения? Это ведь будет абсолютно точно и возможно быстрее.
@archieDeveloper
@archieDeveloper 8 лет назад
я не эксперт, но мне кажется оно так и работает, каждую итерацию обучения кенгуру совершает прыжок, сперва большие, а к концу обучения по меньше, чтобы не проскакивать впадины :) хотя возможно я вообще не понимаю что несу :)
@megastuffer
@megastuffer 8 лет назад
Какие триллионы, 100 миллиардов нейронов
@81n90
@81n90 7 лет назад
+1 даже меньше - около 86 ярдов
@user-mp1ce7oq4d
@user-mp1ce7oq4d 7 лет назад
да он от балды ляпнул, чтобы представить масштабы)
@Qwerty0.1
@Qwerty0.1 7 лет назад
извините, есть тут кто живой? под впечатлением от этих уроков, запилил неиросеть амебы, амебы потомучто неиросетью это назвать наверно нельзя, ну в общем она распазнает буквы которые я рисую в паинтбоксе. распознает реалтайм, как для первого опыта мне кажется сойдет.буду развивать. вот только делема)))) скопировал релиз на флешку, проверил, работает,включил на другом пк, там не работает. Почему так ?
@user-mp1ce7oq4d
@user-mp1ce7oq4d 7 лет назад
проц не тянет )))) Сколько оперативки?))))))))))))))
@Qwerty0.1
@Qwerty0.1 7 лет назад
Марат Тер-Акопов а уже все нормально, на компе не все драйвера установлены были
@ghostlynomad7788
@ghostlynomad7788 6 лет назад
На каком языке написал, если не секрет? ) Я пока только теорию, которую здесь обсуждали, более-менее понимаю, а как закодить вообще не ясно (
@mykolaovdiichuk5724
@mykolaovdiichuk5724 4 года назад
Почему при переходе на адрес сайта висвечивается реклама порнографии 😆
@Hunter6745
@Hunter6745 6 лет назад
"прямая"... прости, не удержался
@higoraleks
@higoraleks 7 лет назад
Реклама каждые 2 минуты это конечно писец.
@user-mp1ce7oq4d
@user-mp1ce7oq4d 7 лет назад
да ладно, он деньжат поднимет, тема узкоспециализированная, это вам не Бузова с кривляками))))
@user-ec8ls2yn6d
@user-ec8ls2yn6d 6 месяцев назад
Нахрена мне свойства сетей, обучи как именно создать сеть? Пошагово...
@CaesarTF
@CaesarTF 6 лет назад
Сук, ну ты и картавишь и шепелявишь одновременно, капец. Сначала выпендривался мол, можно использовать в своих проектах. все дела, сам сидит толкает тут только абстрактную теорию, ни формул, ни кода, какие-то ооооочень общие принципы.
@smartme4643
@smartme4643 9 лет назад
а где ты всё это изучаешь, дай пару первоисточноков, так сказать)
Далее
генетический алгоритм
9:29
Просмотров 377 тыс.
Я ВЕРНУЛСЯ 🔴 | WICSUR #shorts
00:57
Просмотров 767 тыс.
Нейронные сети - Регрессия
20:46
Как Нейронные Сети Обучают
9:24
Время в чёрной дыре (ScienceCLic)
12:11