Тёмный

Лекция 1. Нейронные сети. Теоретические результаты 

Computer Science Center
Подписаться 160 тыс.
Просмотров 149 тыс.
50% 1

Модель нейрона. Активационная функция. Сети прямого распространения. Архитектура нейронной сети. Коннективизм. Обучение нейронной сети. Обратное распространение ошибки. Метод скорейшего спуска. Эпохи и batch'и. Инициализация нейронной сети. Пример: задача Обучающее или. Библиотека Neuralnet. Пороговое значение.
Лекция №1 в курсе "Анализ данных на R в примерах и задачах, часть 2" (весна 2017).
Преподаватель курса: Вадим Леонардович Аббакумов
Страница лекции на сайте CS центра: goo.gl/JH1KPD
Лекции курса по порядку: • Лекция 1. Нейронные се...

Опубликовано:

 

17 фев 2017

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 178   
@anaaa4049
@anaaa4049 7 лет назад
Дождались часть два! Спасибо!
@user-fk3gy5qg5c
@user-fk3gy5qg5c 5 лет назад
Лучший лектор из всех, которых я встречал!
@NarkotikAsd
@NarkotikAsd 2 года назад
Вот уж не думал что настолько интересно будет . Спасибо
@user-ts6od5yz5o
@user-ts6od5yz5o 4 года назад
Первое видео из многих мною просмотренных в котором числа подставили в формулы, за одно это вам поклон до земли ).
@user-en7hd8li8p
@user-en7hd8li8p 6 лет назад
Отличная лекция. Спасибо!!!
@nastiausova3994
@nastiausova3994 6 лет назад
Спасибо за материал, очень интересно. А что касается негативных комментов, то они лишний раз подтверждают, что сколько людей, столько и мнений) Видать лекции тоже на вкус и цвет)
@sanya8158
@sanya8158 2 года назад
Спасибо огромное за лекцию!!!
@11Karpovich11
@11Karpovich11 7 лет назад
Отличная лекция! Большое спасибо автору и тому кто это снял и выложил!
@voronow3
@voronow3 4 года назад
да, толковый экскурс в историю с сопоставлением современности.
@user-nw6ck8lb4y
@user-nw6ck8lb4y 6 лет назад
Все предельно понятно. Спасибо!
@ilyastepanenko5290
@ilyastepanenko5290 4 года назад
Просто о сложном. очень понятно и наглядно объясняет
@CaptainJeckNonPirate
@CaptainJeckNonPirate 2 года назад
Молодчинка!!! Спасибо ВАм!!!!
@zerotroll
@zerotroll 7 лет назад
Отлично! Спасибо большое!
@user-np6vu7ff8e
@user-np6vu7ff8e 3 года назад
Очень ясное изложение! Классно.
@nicolasray6257
@nicolasray6257 2 года назад
Тема нейросетей для меня довольно сложная и именно этим она и привлекает. Поначалу непонятно совсем ничего, но изучая все больше материала все больше вникаешь в эту тему.
@user-tc1mi4bs3m
@user-tc1mi4bs3m 6 лет назад
Очень хорошо для новичка. Многие моменты значительно прояснились.
@user-rn2xd9et4z
@user-rn2xd9et4z Год назад
Привет, ты хорошо разбираешься в нейросетях?
@kerselkerosin
@kerselkerosin 5 лет назад
Коллеги, наконец-то много полезных мелочей, а не просто стандартная медиа-модель НС!
@user-rn2xd9et4z
@user-rn2xd9et4z Год назад
Привет, ты хорошо разбираешься в нейросетях?
@ancientmysteries3224
@ancientmysteries3224 Год назад
классные лекции, спасибо
@sashabudjer5760
@sashabudjer5760 Месяц назад
Интересная лекция, спасибо!
@MrRadiostep
@MrRadiostep 2 года назад
8:39 схема то как мастерски нарисована! Дизайнер от бога рисовал.
@user-virt
@user-virt 7 лет назад
Спасибо!
@Steklopod
@Steklopod 6 лет назад
Лекция супер! Спасибо.
@mutniytip2000
@mutniytip2000 5 лет назад
отличная лекция
@manechkaification
@manechkaification 7 лет назад
я правильно понимаю что часть 2 будет потихоньку выкладываться? Замечательный лектор, жаль не вживую слушаю!
@CompscicenterRu
@CompscicenterRu 7 лет назад
Да, всё верно. Курс как раз сейчас в процессе прочтения, поэтому выкладываем видео по мере проведения лекций.
@user-rn2xd9et4z
@user-rn2xd9et4z Год назад
Привет, ты хорошо разбираешься в нейросетях?
@user-rn2xd9et4z
@user-rn2xd9et4z Год назад
@@user-ox5xl9vg8n ну может он за пять лет стал профи
@serg8483
@serg8483 7 лет назад
Спасибо
@mrGrey2009
@mrGrey2009 3 года назад
Крутой препод!
@mishaalex1583
@mishaalex1583 6 лет назад
Отлично!
@xarbi.
@xarbi. 10 месяцев назад
Вау, удивительно, что я увидел это видел после 6 лет после публикации. Да, графическая карта... Сейчас по-моему она у каждого есть дома)
@user-rn2xd9et4z
@user-rn2xd9et4z Год назад
Нужен человек в команду, который хорошо разбирается в нейросетях, есть крупный проект, который имеет высокий потенциал коммерциализации
@igorg4129
@igorg4129 3 года назад
Все очень достойно, доступно и понятно. Но есть одна огромная оговорка которая применима не только этому лекатору а помоему ко всем кого я слушал по теме о нейронных сетях. (кроме одного кто сообразил что с этого и надо начинать... ссылка на праведника в конце поста). Они все грешат тем что начинают лекцию не с того. А начинать лекцию надо со следующего вступления: Коллеги, когда заходит речь о решении задач регрессионного типа, есть много способов подогнать под существующие данные(точки) некую кривую- полином, с тем чтобы потом с ее помощью прогнозировать. Вот на вскидку пара таких широкоизвестных способов: Kriging Lowess Spline Fourier series... Так вот, коллеги. Пресловутые нейронные сети, это всего то еще один способ подогнать кривую под существующие точки. У этого метода псть много плюсов, как и недостатков. И об этом мы поговорим сегодня.
@Vadim_Abbakumov
@Vadim_Abbakumov 3 года назад
Когда нейронная сеть долго играет с другой нейронной сетью в шахматы, обучается между делом, какие точки она подгоняет? В современных задачах идея аппроксимации начинает мешать. И регрессионные модели стали другими, например когда мы оцениваем вероятность того, что на фотографии нет кролика.
@igorg4129
@igorg4129 3 года назад
@@Vadim_Abbakumov Точки это обзервации- т.н наблюдения. Какой бы не была заумной нейронная сеть, играла бы она в шахматы или отличала кошечек от зайчиков, все построенно именно на идее апроксимации как вы верно отметили. Если вы зададитесь вопросом а что значит слово апроксимация, и вообще что к чему апроксимируется, вы поймете о каких точках -обзервациях-наблюдениях идет речь. Рекомендую ознакомиться towardsdatascience.com/why-a-neural-network-without-non-linearity-is-just-a-glorified-line-3d-visualization-aff85da10b6a www.quora.com/Is-Machine-Learning-just-glorified-curve-fitting news.ycombinator.com/item?id=11704789
@mejilot
@mejilot 2 года назад
Может стоит начать с того что такое задачи регрессионного типа..? Хотя может это на другом предмете проходят. Я просто совсем не шарю, а лекцию просто слушать приятно
@alexanderdimov7329
@alexanderdimov7329 2 года назад
@@Vadim_Abbakumov она аппроксимирует функцию беллмана фактически, например, (если политика жадная)..или функцию распределения оптимальной политики в данном состоянии, правда тут уже есть стохастический выбор состояния для обучения ..а вероятностные и стохастические модели это уже к машинам больцмана и прочее, хотя они тоже аппроксимируют ..просто функцию распределения..ну или те же gan..фактически стохастические генераторы..функцию распределения аппроксимируют "фактически"
@user-rn2xd9et4z
@user-rn2xd9et4z Год назад
Привет, ты хорошо разбираешься в нейросетях?
@mcdosnightmare5248
@mcdosnightmare5248 2 года назад
Буду писать вопросы по ходу лекции
@victoriasemenenkoseo8143
@victoriasemenenkoseo8143 3 года назад
Уже знают. И все действительно только ввиде связей. Нужны связи они существуют, не практикует особь определенный навык или информацию, связи ослабляются или разрушаются, т.е. уходят в пассив. Но при этом часто связи не исчезают вообще даже если разрушены
@user-kl2nv3ct7u
@user-kl2nv3ct7u 5 лет назад
Ошибка на слайде 12:48 у пороговой функции. сравнивать надо с 0.5
@rawen389
@rawen389 Год назад
Потоки данных сформируют в нейросетевой модели ИИ понятия и индуктивные умозаключения, которые не будут иметь аналогов у человека. Затем последуют непредсказуемо необъяснимые действия. Но для этого нужно самообучение сети, пока же человек оценивает результаты и обучает сеть дальше продвижения не будет. Теорема Геделя в действии.
@user-dl9kq6mx5p
@user-dl9kq6mx5p 2 года назад
Досмотрел после 1.10 уже не понятно. А так все супер 😊
@maxvolkov1984
@maxvolkov1984 7 лет назад
На "осень 2017" в описании немного подзавис... Всё-таки весна, наверное.
@CompscicenterRu
@CompscicenterRu 7 лет назад
Ой, да.
@OlegKorsak
@OlegKorsak 2 года назад
что значит "нет графической карты "?? 👀
@romanstirskyi
@romanstirskyi 2 года назад
Подскажите пожалуйста где можно почитать про свободные члены? Зачем они нужны? Спасибо!
@Vadim_Abbakumov
@Vadim_Abbakumov 2 года назад
Без них f(0,0,0,...0) =0. Но это бессмысленное ограничение.
@romanstirskyi
@romanstirskyi 2 года назад
@@Vadim_Abbakumov спасибо за ответ
@Syllogist
@Syllogist 3 года назад
А как насчёт того, чтобы снабдить ИИ способностью мыслить? (06-04. ОСНОВЫ ПРАВИЛЬНОЙ СИЛЛОГИСТИКИ (ГЛАВНАЯ ТАЙНА И СЕМЬ СЕКРЕТОВ РАСЧЁТА AEIO-СИЛЛОГИЗМОВ): ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-UL64zmluKJ8.html) СлабО?
@alexk6745
@alexk6745 2 года назад
41:50 А что сохраненые веса(константы) это не память?
@Vadim_Abbakumov
@Vadim_Abbakumov 2 года назад
Так я именно об этом говорил
@adeled8833
@adeled8833 2 года назад
А архивчик что не выложили?
@paveldz6921
@paveldz6921 2 года назад
Мне кажется можно придти к тому, что вообще от понятия нейронная сеть можно будет отказаться. Почему-то мне кажется, что нейтронная сеть просто реализует какой-то механизм (систему), с которым, на самом деле, можно работать иначе. Возможно у нашего мозга просто выбор был не очень большой, и он реализовал это так, но можно было и по-другому.
@alexanderdimov7329
@alexanderdimov7329 2 года назад
это просто параметрически заданный алгоритм...
@user-ml2nt1rn4j
@user-ml2nt1rn4j 3 года назад
Я всего навсего слесарь КИП и А, и это мне что-то сильно напоминает. На старых крупных котельных и на ТЭЦ регулировку техпроцесса обеспечивают аналоговые регуляторы на операционных усилителях, обычно с тремя входными импульсами от датчиков и выходом на исполнительное устройство. Это что-же, мы слесаря кип ремонтировали микро нейросети, и обучали их, настраивая коэффициенты каждого импульса (у вас - задавая веса), чтобы регулятор правильно поддерживал необходимый технологический режим.
@Vadim_Abbakumov
@Vadim_Abbakumov 3 года назад
Во первых да, во вторых современные нейросети сами подстраиваются, а это свойство самообучения - шаг вперед
@Achmd
@Achmd 2 года назад
1:23:00 Ошибка в пороговой функции. График не соответствует условиям
@adeled8833
@adeled8833 2 года назад
14:38 пороговая : 1 if x>=0
@Vadim_Abbakumov
@Vadim_Abbakumov 2 года назад
Действительно, ошибся. Спасибо за поправку.
@user-oz3lm2ky5x
@user-oz3lm2ky5x 2 года назад
Простейшая сеть для распознавания рукописных цифр в MATLAB учится на процессоре за несколько минут (максимум за несколько десятков минут).
@_Andrew_Parker_
@_Andrew_Parker_ 3 года назад
После этого видео окончательно понял, как реализовать нейросеть
@hostage2951
@hostage2951 3 года назад
Вся надежда только на тебя
@grigogiyreznichenko2033
@grigogiyreznichenko2033 2 года назад
59:54 2022 а мы до сих пор гадаем где у функции стоимости глобальный минимум))
@AllSC2Replays
@AllSC2Replays 6 лет назад
25:02 . почему отсутствует связь у Х1 на схеме с одним слоем и больше?
@Vadim_Abbakumov
@Vadim_Abbakumov 6 лет назад
У стандартной нейронной сети эта связь должна быть. У сети нестандартной архитектуры может и отсутствовать. На предыдущем слайде вопросительный знак в фразе "входы - от каждого (?) нейрона предыдущего слоя" указывает на такую возможность. Мне стоило обсудить это поподробнее...
@micshu1
@micshu1 3 года назад
Нейросеть не что иное как модное название с красивыми картинками динамического программирования на суперпозициях функций. То есть получается это полиномиальная аппроксимация.
@user-nz2hh9po2r
@user-nz2hh9po2r 2 года назад
да, ну и что?
@MrZlobec
@MrZlobec 5 лет назад
Keras для R есть.
@Vadim_Abbakumov
@Vadim_Abbakumov 5 лет назад
Совершенно верно, но интерфейс к Keras в R появился в сентябре 2017, а лекция читалась в феврале...
@jurbanhost
@jurbanhost Год назад
@@Vadim_Abbakumov а сейчас, ура, есть torch - и это не обертка над pyTorch
@Leo_3_in_1
@Leo_3_in_1 3 года назад
57:37 10 млн наблюдений...так кофточек столько нет))) Это же сколько работы по наработке базы...
@Vadim_Abbakumov
@Vadim_Abbakumov 3 года назад
Кофточек нет. А фотографий девушек в кофточках сколько захочешь. А база может быть из искусственных фотографий. Когда фото переделывают, и девушку "переодевают" в другой наряд.
@user-zy9zj8oh1k
@user-zy9zj8oh1k 2 года назад
Здравствуйте. А постоянное ,,АЭ" это навсегда? Или алгоритмы не совместимы с материнкой? Если есть объяснение, укажите путь. Благодарю
@user-yz9uw3pd5t
@user-yz9uw3pd5t 2 года назад
4:45 солаб привет п.с. я знаю, что его тогда не было
@deniskoredisko371
@deniskoredisko371 5 лет назад
Что за хрень, как нет видяхи? Сейчас в браузере можно обучать, даже без CUDA, через WebGL (данные в текстуры, шейдер считает, результат пишется обратно в текстуру), такую оптимизацию поддерживает, например Керас.
@Vadim_Abbakumov
@Vadim_Abbakumov 5 лет назад
Интерфейс между R и Keras появился в сентябре 2017, лекция читалась в феврале...
@MrKim-pt2vm
@MrKim-pt2vm 7 лет назад
думаю провалов не будет. серьезных не будет. а сми разведут панику
@user-oc6mf3vc2v
@user-oc6mf3vc2v 3 года назад
как из 0,1 и -0,2 получилось 0,12?
@Vadim_Abbakumov
@Vadim_Abbakumov 2 года назад
Это множители, а не слагаемые
@nefton001
@nefton001 6 лет назад
почему ошибка это квадрат разницы?
@Vadim_Abbakumov
@Vadim_Abbakumov 6 лет назад
Небрежность речи. Ошибка это разность, сумма квадратов ошибок - критерий качества модели (Такой критерий качества - один из многих, и его популярность уменьшается )
@olgapolka168
@olgapolka168 4 месяца назад
19:39 то есть
@olgapolka168
@olgapolka168 4 месяца назад
1:15:45
@user-ji2ok4ki9w
@user-ji2ok4ki9w 4 года назад
зачем в русском переводе писать "биллионы", а не "миллиарды"?
@flocken70
@flocken70 3 года назад
Неплохо, но имхо, Дмитрий Романов несколько более цельно и точно объясняет.
@natalialantukh3088
@natalialantukh3088 5 лет назад
хорошие лекции. нужная практическая инфа. а что слова паразиты, так тут не занятия словесности. коллега коллегу поймёт, понятненько?
@user-yy1mw3bi2w
@user-yy1mw3bi2w 4 года назад
коллеги, понятно?
@AlexanderAbramovNN
@AlexanderAbramovNN 3 года назад
А инфа - не паразит, а!? ;)
@---id2el
@---id2el 2 года назад
!!!
@Oleksandr_data_science
@Oleksandr_data_science 4 года назад
Никак не могу привыкнуть к тому, что x1
@Vadim_Abbakumov
@Vadim_Abbakumov 4 года назад
Вы правы, меняю в y 0 и 1 местами
@user-rn2xd9et4z
@user-rn2xd9et4z Год назад
Привет, ты хорошо разбираешься в нейросетях?
@victoriasemenenkoseo8143
@victoriasemenenkoseo8143 3 года назад
В мозге чем глубже сеть, тем меньше ресурсов расходуется - классический природный рационализм. Во время лжи мозг расходует неимоверное количество ресурсов, что есть неадекватным с точки зрения природы
@lesgrossman834
@lesgrossman834 2 года назад
То есть мы не природного происхождения? Ты несёшь чушь. Ложь эволюционно оправдана со всех сторон. Ложь требует больше энергии не потому, что это плохо и противит природе, а потому, что это творческий процесс с моделированием ветвлений. Так же в процессе лжи усиливается контроль над физиологией ради убедительности. И ресурсы достижимые благодаря лжи в случае успеха с лихвой окупают все затраты.
@viktorliutov7292
@viktorliutov7292 Год назад
Спасибо большое автору, но манера подачи материала некудышная, такое впечатление, что это выступление на конференции перед специалистами в данной области, а не первая лекция. Например, формулировка задачи ни как не может звучать как: -"... классическая задача исключаещего или выглядит так...и картинка из которой ничего не понятно.. и много других подобных ситуаций которые превращают просмотр лекции просто во времяпрепровождение.
@JohnLee-bo9ft
@JohnLee-bo9ft Год назад
Можно и без математики, конечно будем все на пальчиках и кружочках объяснять
@Vadim_Abbakumov
@Vadim_Abbakumov Год назад
Добро пожаловать в 21 век. Работаем с функциями, которые удобнее задавать графом вычислений.
@illarionfido8751
@illarionfido8751 7 лет назад
27:00 все три книжки АМЕРЕКАНЦЫ написали? видос очень интересный, жаль что универсальный язык плохо знаю
@Vadim_Abbakumov
@Vadim_Abbakumov 7 лет назад
1. Christopher M. Bishop и Brian D. Ripley англичане. 2. Книга американца Семена Хайкина переведена на русский: Саймон Хайкин Нейронные сети: полный курс, 2-е издание. 3. Без английского разбираться в анализе данных совсем тяжело.
@illarionfido8751
@illarionfido8751 7 лет назад
Вадим Аббакумов​​ ВЕЛИКОГО и УНИВЕРСАЛЬНОГО АНГЛИЙСКОГО ЯЗЫКА ОБЩИХ ЗНАНИЙ!
@robosergTV
@robosergTV 6 лет назад
без знаний англ. языка с нейронками можешь даже не начинать.
@Uni-Coder
@Uni-Coder 3 года назад
Бишоп и Рипли? Это же из "Чужих" :)
@Mary-xp9pe
@Mary-xp9pe 2 года назад
1.10
@vladig6649
@vladig6649 2 года назад
Термин "обучение" применительно к структурам называемыми "искусственные нейронные сети" не совсем корректен. Логичнее и правильнее называть это настройкой ИНС по заданным наборам входных (статистических) данных с ответами с целью получения наиболее точной предсказательной модели на получение ответов на такие же наборы входных данных. Любой процесс обучения подразумевает прежде всего его когнитивность (осмысленность) в котором всегда присутствует обьяснительная компонента. Модель ИНС же не может пояснить, почему ей получен именно такой, а не другой результат (ответ). Также не корректно ассоциирование с нейронами головного мозга, тк их устройство и поведение далеко еще не изучены. "Искусственный интеллект" (AI), "искусственные нейронные сети" были введены в обиход почти 70 лет назад и сохранились больше как пиар-термины.
@user-rh3wg4ph9b
@user-rh3wg4ph9b 2 года назад
Биллионы - это миллиарды по-русски
@mcdosnightmare5248
@mcdosnightmare5248 2 года назад
Со всем уважением буду писать возникающие вопросы по ходу лекции. Утверждение: 1.- "Информации как таковой внутри нейросети нет, если не считать веса." Разве? Динамическая информация не информация и в нейросети не содержится? 2.- "Мозг" думает не ячейками, "мозг" думает связями. Но это же не значит, что мы не можем использовать ячейки, правильно? Динамическая информация требует намного больше ресурсов для своего функционирования, и вряд ли эволюционный организм этот факт не заметил. Мне кажется ячейки "мозг" все-таки использует, но не для высшей нервной деятельности, а для низшей - для дыхания, потоотделения, сужения зрачков, для того что дается врожденными инстинктами, нет?
@user-yz9uw3pd5t
@user-yz9uw3pd5t 2 года назад
а что имеется ввиду под динамической инфой?
@mcdosnightmare5248
@mcdosnightmare5248 2 года назад
@@user-yz9uw3pd5t . 1=1 - не динамическая инфа, 1=3-2 - динамическая инфа.
@TV-bh1wo
@TV-bh1wo 3 года назад
Компьютер который выигрывал у человека это не нейро сеть это программы на шахматных движках а нейросеть которая выиграла у этих движков альфа зеро называлась
@Vadim_Abbakumov
@Vadim_Abbakumov 3 года назад
Да я вроде про го говорил... А за уточнение, что компьютер и программное обеспечение не одно и то же - особое спасибо.
@VORONOKVA
@VORONOKVA Год назад
Что-то жутко подозрительное на 1 ч 7 мин. Хорошая нейронная сеть у человека не меняет активационную функцию так внезапно как нам тут велят.
@slavas9200
@slavas9200 4 года назад
Спасибо, за содержание, но слушать непрятно такую речь. Тезисно набросайте на бумажке, и будет легче в два раза говорить.
@strapon8465
@strapon8465 2 года назад
Поднебесный после дурки сильно изменился.
@user-wi8iq3hn3k
@user-wi8iq3hn3k 5 лет назад
Игра в шахматы давно решена?? надеюсь, ему кто-нибудь расскажет о разнице шашек и шахмат..видимо, ему она неизвестна
@ZugDuk
@ZugDuk 4 года назад
Что значит решить игру в шахматы? В шахматы играют, а не решают их.
@cratasthymos
@cratasthymos 3 года назад
Рассказал про "ГО" и даже не рассказывал про то что ИИ открыл" все теоремы геометрии
@Vadim_Abbakumov
@Vadim_Abbakumov 3 года назад
Теоремы геометрии были передоказаны ИИ до 1970 года. IMHO c го была решена более сложная задача... Если Вы здесь добавите про геометрию, буду благодарен. Может я что-то важное пропустил.
@eugenechernyshenko4933
@eugenechernyshenko4933 3 года назад
"Если бы у нас был доступ" - colab.research.google.com
@Vadim_Abbakumov
@Vadim_Abbakumov 3 года назад
Google's Colab появился через год после лекции. Да, было время, когда его не было...
@BrainOfBoltzmann
@BrainOfBoltzmann 7 лет назад
ПАСЕБА
@fredhandler9489
@fredhandler9489 3 года назад
Ничего непонятно, но очень интересно! "Приходилось ли вам читать научно-популярную или учебную книгу с чувством, что вы не совсем понимаете, что в ней написано? Если да, то, скорее всего, исходя из «презумпции невиновности автора», вы вините в этом себя: за свой недостаточно высокий уровень образования, узость кругозора, отсутствие необходимых способностей. Однако правильнее было бы исходить из «презумпции собственной невиновности», так как если вы внимательно вчитываетесь, но не понимаете адресованный вам (согласно книжной аннотации) текст, то виноваты в этом не вы, а автор. Ведь он взялся написать книгу для вас, а не для самого себя или узкого круга своих коллег. Однако для доходчивого и внятного изложения материала ему не хватило логической культуры . Что такое логическая культура? Это знание и соблюдение основных принципов и требований правильного построения и выражения мыслей как в устной, так и в письменной речи. Отсутствие такой культуры приводит к разнообразным логическим ошибкам, которые засоряют не только научное, но и повседневное мышление, мешают нам думать, общаться, понимать друг друга и самих себя. Неясность и неопределенность мышления, его непоследовательность и сумбурность, противоречивость и необоснованность является прямым результатом отсутствия должного уровня логической культуры. Мышление, соответствующее требованиям логики, подобно прозрачному ручью: сквозь воды которого виден каждый камушек и песчинка на дне. Мышление, построенное на нарушениях логических законов, подобно мутному потоку: в нем ничего не видно. Правда, некоторые говорят, что в мутной воде удобнее «ловить рыбу», то есть строить такие высказывания и создавать такие тексты - сложные и малопонятные для адресата, - в которых внешняя глубокомысленность и наукообразность маскируют внутреннюю непоследовательность и порой - бессодержательность. Вряд ли добросовестный человек может быть сторонником такой «рыбалки»". (Д.А.Гусев "Удивительная логика". М.:2010.,Стр.2)
@IvanIsVladimira
@IvanIsVladimira 2 года назад
Просто это для людей неплохо понимающих в математике. (я сам почти не понял ничего)
@user-sj9ph4ny7j
@user-sj9ph4ny7j 2 года назад
Нейронные сети и ещё чего ,,дипленник,, Реши проблему инсульта, ЧМТ,выбитые функции... А болтать сегодня можно...и кто кого переговорит... А по инсульту ко мне...
@nodirbek3272
@nodirbek3272 Год назад
Почему у российских лекторов так много пустой болтовни. Ведь эту лекцию можно легко по смыслу втиснуть в виде 5-10 минут.
@ScorpionZema
@ScorpionZema Год назад
У вас их вообще нет в Узбекистане
@user-rx9kv2ho1z
@user-rx9kv2ho1z 4 года назад
Плохая лекция, вместо внятного пояснения общие фразы типа про "очевидные вещи", информация вырванная из контекста, без внятных пояснений, непоследовательно и скомкано. Зря потратил 1.5 часа.
@user-wt2st7oy7n
@user-wt2st7oy7n 4 года назад
Описать одним уравнением, что воспринимает человек, как не очень понятно очередное возвращение.
@user-ny1cr3mo9r
@user-ny1cr3mo9r 4 года назад
Вместо нейронных сетей russkaja-fizika.ru/sites/default/files/book/mozg._russkaya_teoriya.pdf
@igorshelby5950
@igorshelby5950 3 года назад
Уж извините, но со строчки про Высший Разум тут же перехотелось читать
@ventilyator
@ventilyator 6 лет назад
не очень лекция. очень много оговорок и недоговорок. понял что пытается втюхать лектор только потому, что уже читал про это
@textreanimator
@textreanimator 14 дней назад
Судя по названию вашего аккаунта, вы читаете идеальные лекции по вентиляторам.
@markusstainberg
@markusstainberg 6 лет назад
Да когда Савелье говорит что программисты нихера не знают как работает мозг, так оно и есть, Хотя бы книжки почитали бы.
@inbuckswetrust7357
@inbuckswetrust7357 6 лет назад
Если бы Савельев еще что-то знал о программировании цены бы ему не было, а то ему какой-то Мойша напел про тупых программистов как и вам :)
@markusstainberg
@markusstainberg 6 лет назад
Inbucks Wetrust программист обычная инженерная профессия и как и в любом деле глупых там больше чем умных. А нейроны в мозге вообще ни разу не нейроны в компьютере.
@inbuckswetrust7357
@inbuckswetrust7357 6 лет назад
А причем тут какие-то среднестатистические программисты ? :) Савельев болтал о принципиальной невозможности типа "подражать" мозгу, ибо компьютеры де не той архитектуры. Дядя Савельев не в курсе, что вне зависимости от архитектуры компьютеры являются универсальными инструментами в плане вычислений... Да они могут быть более примитивны, не так шустры, без такого количества нейронов как головной мозг, с этим никто пока и не спорил :) но то что это все бесполезно и туфта(а я помню с каким пренебрежением Савельев говорил о нейросетях) Савельев брешет не разбираясь. Я смотрю вы тоже пошли по пути Савельева, с умным видом говорить банальщину. Кто и где и когда утверждал что модель нейрона в компьютере равна нейрону головного мозга ? :))) Модель она всегда модель, любая эмуляция чего угодно не отображает реального процесса происходящего в природе. Ну невозможно искусственно создать чисто физически часть мира имеющую понятие обо всем многообразии этого мира, в силу понятных ограничений. Но пока такие балтуны как Савельев пытаются тугодумить и понять что и как работает изнутри, компьютеры таки будут стоять на краю открытий в мире исследования как мозга так и других интересных вещей. Конечно можно долго надувать щеки и извиняюсь хуесосить другие научные дисциплины но это не красит ученого никак :) Мне как айтишнику смешно слушать бредни Савельева про бесполезность и беспомощность компьютеров в этом вопросе. Странно но мне хватает ума не учить Савельева мозговедению :))) И так же любому мало мальски грамотному человеку сегодня очевидно, что компьютер это по сути микроскоп и телескоп 20 века.... это инструмент в руках многих ученых из разных сфер знаний.
@markusstainberg
@markusstainberg 6 лет назад
Inbucks Wetrust проблема в том как преподаватель объясняет как работает нейрон. А эту всю статистическую халабуду называют нейронной сетью, ты же знаешь что это к реальности имеет отдаленное отношение. Так ты можешь сказать возьми и запили нормальный нейрон, и назови его тру нейрон, так в том то и дело что я знаю только отдаленноо как он работает и я предполагаю из-за этой подмены понятий немногие и заморачиваются . То что Савельев говорит о том что нейронные сети это примитив по сути так оно и есть, это же статистика. Кто спорит что задачи статистики ими решаются или задачи перебора, а решить теорему какую нибудь как сетью?
@markusstainberg
@markusstainberg 6 лет назад
Знаешь я сколько не смотрел лекций и в сколково все лекторы вещают эту дичь вот так выглядит нейрон, а вот наш нейрон и типа да он почти такой же, да вот ни разу не такой, 2 признака, тело, связь и всё называем нейрон бред же.
@ladysoverschenstvo7875
@ladysoverschenstvo7875 3 года назад
Ээ,ээ,ээ,ээ,ээ так режит слух.
@RomeoEdik
@RomeoEdik 4 года назад
разные модели нейронных сетей / переобученность сети / -- do you realy think, it is working the same like a human brein??? то что вы демонстрируете, это аналог нервной системы обычных рефлексов, и вы эти рефлексы обучаете как ребенок учится ходить, в данной функции никогда не родится сознание. я нашел альтернативу, на много проще чем у вас, думает, видит сны, рассуждает, и на моём домашнем ПК, ненужен супер квантовый компьютер. если интересно пишите мне я расскажу в деталях
@Vadim_Abbakumov
@Vadim_Abbakumov 4 года назад
Я отчетливо говорю: искусственные нейронные сети работают иначе, чем человеческий мозг.
@ZugDuk
@ZugDuk 4 года назад
очередной непризнанный гений))
@kolomasov
@kolomasov 4 года назад
Эдуард - молодец. Теперь дело за малым - возьми хотя бы MNIST - и распознай своими алгоритмами, какова будет точность на отложенной выборке? А потом попробуй ImageNet, какова будет точность на отложенной выборке там? Потом приходи сюда или на хабр, и пиши что получилось. Твои сны, мысли и рассуждения на ПК - оставь себе, пока ты не предоставил измеримые понятные результаты - они нафиг никому кроме тебя не нужны.
@paulvlasov7087
@paulvlasov7087 4 года назад
Что за ахинея ? В коре около 11 млрд нейронов, в целом, до 150 млрд. Каждый нейрон от 10 тыс до миллиона синапсов. Какие биллионый нейронов?
@vladimir_zenin
@vladimir_zenin 4 года назад
Калька с английского. Это значит миллиард. dictionary.cambridge.org/ru/словарь/английский/billion
@paulvlasov7087
@paulvlasov7087 4 года назад
Это ты доктору наук советуешь?:)
@a.o.yaroslavov
@a.o.yaroslavov 6 лет назад
По количеству паразитных слов делаю вывод что лектор не в теме и ближе к шаману, а не к ученому.
@kerselkerosin
@kerselkerosin 5 лет назад
В этом есть правда, ибо прозвучало что нет теоремы решающей вопрос об оптимальной структуре скрытого слоя. Теоремы-то может и нет, но задача вполне решаема и без бубна методами комбинаторики и т.п. Лектор просто не заморочился задуматься, заморочившись лишь гуглением.
@OPKECTPAHT
@OPKECTPAHT 5 лет назад
Это не учёный, это учитель. Не путайте. Одному дано преподавать, другому двигать науку. И не надо ставить знак равенства между вузами и НИИ. Они смежники, но заняты разными делами. Дело преподавателя (учителя) готовить кадры. Наука для вузов вторична. Для научных и научно-исследовательских заведений наоборот, учёба вторична (не везде сейчас аспирантуры есть), а наука первична. Что характерно для большинства наука прикладная, а то и вовсе задачей ставится её внедрение, а не фундаментальные исследования. И это правильно. Каждый должен заниматься своим делом. Автор явный преподаватель, это хорошо, но он не обязан быть крутым учёным.
@ZugDuk
@ZugDuk 4 года назад
@@OPKECTPAHT совмещать надо исследования, коммерческие заказы и преподавание. Иначе будет отрыв от реальности (вот как в этой лекции например учит тому, что давно не применяется).
@Achmd
@Achmd 2 года назад
что такое "пиксЕли"?)) это на каком языке? ужасная лекция, лектор будто впервые этим занимается. "вот икс, вот даблвэ, вот сумма, вот такие аппроксимирующие функции" - что? куда? явно где-то что-то упущено. А упущено само объяснение нейронов. С таким же успехом можно было начать с обратного распространения ошибки, если уж порядок неважен. "на эр нейронки не пишут, лучше пайтон или си" .. в конце лекции: "давайте откроем эрстудио" предлагает литературу 15-летней давности.. это я ещё молчу про косноязычие и "вот, вот, вот, вот, вот". Лучше уж посмотреть "3Blue1Brown" по сетям. Даже в английском варианте больше информативности. Ещё и с графикой. Или в переводе от Sciberia
@user-zr6bg7fs3v
@user-zr6bg7fs3v 4 года назад
Не надо цыкать, это противно. Извените
@rustam.u.valiev
@rustam.u.valiev 7 лет назад
Лекция ужасная. Ритмика речи лектора отвратительная. С точки зрения подачи материала -100% (минус сто). Лектор "запарывает" материал. Скачет с 5го на 10е. Никакой системы. Важные моменты проскакивает никак не акцентируя и не разъясняя. У новичка от такой "лекции" будет только сумбур и каша в голове.
@user-zo8zi2iw1t
@user-zo8zi2iw1t 6 лет назад
Если вы не понимаете, не значит, что лектор виноват. Если новичок - учи базу, почитай что-нибудь.
@markusstainberg
@markusstainberg 6 лет назад
Что более толковое на твой взгляд есть посмотреть?
@user-kg2he4sf2v
@user-kg2he4sf2v 6 лет назад
Учебник по информатике для 9-го класса.
@user-zo2yd5dh2l
@user-zo2yd5dh2l 6 лет назад
Систематизировать информаци и подавать материал сжато и лаконично очень не просто.
@mutniytip2000
@mutniytip2000 5 лет назад
ну такое, я вот новичок и всем доволен
@MelvinStudios
@MelvinStudios 7 лет назад
Хорошая лекция, плохая дикция. Постоянно у него всё "что-то там какое-то", формула "какая-то", реакция "какая-то", гостодьбох "как-то", высвобождаются "какие-то" элементы, долгий подбор слов. 2:47 - nocomment. Слушать, в общем, тяжело. Видимо, у остальных есть терпение)
@ZugDuk
@ZugDuk 4 года назад
@@user-nw6ck8lb4y не сотвори себе кумира)
@uporka6924
@uporka6924 Год назад
Нервные сети
@Dolphinqwe
@Dolphinqwe 5 лет назад
Спасибо
@anjukdakar989
@anjukdakar989 2 года назад
Спасибо
Далее
Лекция 1. Теория игр
1:22:00
Просмотров 23 тыс.