Тёмный

Нейронные сети. Лекция 1 - пример нейронной сети, основы работы, примеры датасетов 

Koshechkin Konstantin
Подписаться 936
Просмотров 6 тыс.
50% 1

В данной лекции приведено описание базовых принципов работы с нейронными сетями.

Опубликовано:

 

29 авг 2022

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 10   
@user-nf7dc6sf1w
@user-nf7dc6sf1w Месяц назад
Так просто материал может подать человек, который разбирается в теме. Спасибо.
@nadezhdamartynova5614
@nadezhdamartynova5614 Год назад
Я бесконечно благодарна за то, что такая информация выложена бесплатно в соц.сетях. спасибо за вашу работу. Но дана теоретическая часть очень сложно, очень сухо. Многие вещи рассказаны настолько сжато, что непонятно, о чем идет речь.
@andreyfly4331
@andreyfly4331 3 месяца назад
Хорошо бы ссылку на ноутбук, иначе невозможно все это усвоить.
@yuralamov9835
@yuralamov9835 2 месяца назад
Бля, раньше называли просто OCR, а теперь искусственный разум
@morispioneer632
@morispioneer632 5 месяцев назад
"метод вычисления градиента" - градиента чего ?? Или градиент это нечто конкретное, как например портфель? Просто портфель. Но даже портфель непрост. Он бывает как сумка, а бывает портфель ценных бумаг.
@koshechkintube
@koshechkintube 5 месяцев назад
Градиент - это величина, которая показывает скорость изменения функции в каждой точке ее области определения. В контексте обучения нейронных сетей градиент обычно используется для вычисления ошибки и обновления весов нейронов. Метод вычисления градиента в обучении нейронных сетей основан на правиле дифференцирования. Для вычисления градиента функции необходимо вычислить производную этой функции по каждому из ее аргументов. В случае нейронной сети, функция может быть представлена как совокупность функций активации нейронов, а аргументами будут входные данные. Процесс вычисления градиента начинается с вычисления ошибки на выходном слое нейронов. Затем ошибка распространяется назад через слои нейронов, и для каждого слоя вычисляется градиент функции потерь относительно весов этого слоя. После этого происходит обновление весов каждого слоя с помощью метода обратного распространения ошибки. В целом, метод вычисления градиента является ключевой частью процесса обучения нейронных сетей и позволяет находить оптимальные веса нейронов для минимизации ошибки.
@morispioneer632
@morispioneer632 4 месяца назад
спасибо большое за ваш ответ, но ... бывает например градиент температуры. Или градиент скорости. Или градиент яркости света. @@koshechkintube
@InStoKiller
@InStoKiller 3 месяца назад
Стохастический Градиентный Спуск
@trelawney8530
@trelawney8530 3 месяца назад
@@morispioneer632 это ответ нейросети, если что)
@user-zs4kv4ii7d
@user-zs4kv4ii7d 5 месяцев назад
Полезной информации - ноль. Структуризация бездарна. Жаль.... тема актуальная.
Далее
[벙커1특강] 박태웅 AI 강의 2부
1:00:31
Просмотров 114 тыс.
Вопрос Ребром - Toxi$
46:50
Просмотров 1,1 млн
Свёрточные нейронные сети
14:02