Лучшее на RU-vid
Кино
Авто/Мото
Видеоклипы
Животные
Спорт
Игры
Приколы
Развлечения
Хобби
Наука
Авторизоваться
Зарегистрироваться
“神经网络”是什么?如何直观理解它的能力极限?它是如何无限逼近真理的?
25:50
“交叉熵”如何做损失函数?打包理解“信息量”、“比特”、“熵”、“KL散度”、“交叉熵”
30:17
Ничего не делаю всё видео 😴
00:33
Bamboo Creations with Slingshots using pin #bamboo #bamboocrafts #bambooart #diy #Craft
00:10
НОВЫЙ РОЛИК УЖЕ НА КАНАЛЕ!
00:14
МОТ vs ДИМА БИЛАН | БИТВА ПОКОЛЕНИЙ | 3 СЕЗОН | 2 ВЫПУСК
1:14:36
什么是“感知机”,它的缺陷为什么让“神经网络”陷入低潮
王木头学科学
Подписаться 30 тыс.
Просмотров 20 тыс.
50%
1
Видео
Поделиться
Скачать
Добавить в
感知机的提出带来了神经网络的繁荣,同样它的缺陷也让神经网络陷入低谷。
感知机是什么?它为什么对神经网络这么关键?
20多分钟,了解感知机。
Опубликовано:
23 сен 2024
Поделиться:
Ссылка:
Скачать:
Готовим ссылку...
Добавить в:
Мой плейлист
Посмотреть позже
Комментарии :
48
@solutions-ai
Год назад
这里补充一下,用转置的方式来求的原因是因为速度会更快(向量化计算),如果有1w个样本,循环计算太慢了。而且转置的形式看起来也比较简洁。
@ohmygod559
Год назад
比起这节课讲的感知机,频道主的思维方式值得我学习🥰🥰🥰
@glorynv1726
2 года назад
你是人工智能自学路上的大神。太棒了!
@yingjiaguo8319
2 года назад
不但讲清楚了问题,还在循循善诱的介绍方法,受益匪浅~
@practicalit5818
4 месяца назад
超牛的视频 - 刷了不止一遍哈
@axeking744
11 месяцев назад
感谢播主的精彩视频,一口气把几个视频看完,感觉终于明白了卷积神经网络代表了什么样的操作,同时还学习了播主的学习方法。
@giselleliu4789
2 года назад
謝謝講解分享~ 但吹毛求疵一下 17:33 我認為 w寫成矩陣或說向量形式,有個意義是代表他是hyperplane的法向量
@hbj418
Год назад
这是我看神经网络教学最顺畅的专辑,非常棒🎉
@李渊-m9w
2 года назад
讲的非常好, 赞一个
@user_3eg8cp1a2d9t.
2 года назад
第一性原理的思考方式。
@michelyupeng
8 месяцев назад
行乘以列,点积所以必须表达成转置矩阵和矩阵相乘的写法,否则确实书写不方便
@sbphsho
2 года назад
感謝知識分享
@junyang1058
2 года назад
说的很好,大受启发,我是一个普通本科生
@胡月-s5h
11 месяцев назад
真的很棒的视频,博主厉害
@user-TweetyBird
6 месяцев назад
你说的有道理
@haibingyu2484
9 месяцев назад
博主确实厉害👍
@chenwilliam5176
Год назад
Artificial Nurual Network : Why Multi-Layer, this is a question ⁉️ Solutions exist or not exist, this is a question ⁉️
@whool4754
2 года назад
后面让我有点明白了为什么要深度学习
@guangminwang4152
11 месяцев назад
表达能力好
@lirenwu8109
Год назад
太牛了,佩服
@fengbenming1819
9 месяцев назад
讲的很好,以后的学生有福了,如果学校老师讲不清楚,就来看这
@chenwilliam5176
Год назад
類神經網路是一種數學函式多層演算法, 絕非模擬大腦 神經元實體網路的運作機制🎉 由於此一函式多層演算法用圖表示, 類似大腦神經元實體網路圖,故取名為「類神經網路」❤ 它也可以取名為 「AI 教父辛頓函式多層演算法」💯
@doubleweijason9215
3 месяца назад
up 应该去搞讲座
@joedavid1809
2 года назад
真棒👍
@hongyuan
2 года назад
这个视频展示了学霸是怎么练成的。
@skyacaniadev2229
5 месяцев назад
有被数学证明出来吗?有的话还会被叫黑箱炼金术吗😂
@oscarwu5027
Год назад
❤thanks, you save my life
@chenwilliam5176
Год назад
f(n) : 不要用 n ,用其它英文字元,例如 : p 比較不會導至誤解 🎉
@张大白-d3z
Год назад
讲的很明白,但是有个问题,那个多层感知机,为什么叠加后是3种情况?
@user-TweetyBird
5 месяцев назад
异或那个吗?是不是把x1与x2 和 非x1与非x2 合并?我耶没听懂
@hankdonald7812
3 месяца назад
因为上面两个感知机的输出结果有三种啊,(0,0),(0,1),(1,0),所以对于第三个感知机来说,就只有三个输入了。
@shrekliao
Год назад
懂了
@yingjiaguo8319
2 года назад
讲的太好了~
@muyuanliu3175
8 месяцев назад
感觉不重要的和重复的话有点多了? 不就是个非线性的事吗,从线性说起,再讲区别就足够了。而且从回归讲起会容易理解很多。
@muyuanliu3175
8 месяцев назад
错误的地方太多了,用阶跃函数实际上已经能实现非线性了
@muyuanliu3175
8 месяцев назад
而且也不是多对一,拜托
@weiwei861
6 месяцев назад
你应该没有听懂
@techbays675
2 года назад
博主可以去做 机器学习 的研究了, 而不是 科普
@btc6235
2 года назад
看王木头这钻研能力, 当时为啥只考上二本? 你高中干啥了?
@wkaing
2 года назад
首先,高中的我的确还没有开窍。然后我觉得还有一个因素,我喜欢专研,所以总是会有各种各样的问题。我在一个四线城市接受教育,没有资源帮助我解答这些问题,所以这些心中的问题不只没能帮助我学习,反而还成了负担。
@jademoon8759
2 года назад
好的老师很重要,很多人本身有天赋, 但是被周围的环境(家长、老师、生活环境)误导甚至圈禁了思维、性格。 有的人出身在教师世家,那么这种知识资源从小就流水一样,当然占优势了。
@chenli741
2 года назад
@@wkaing 有没有可能是因为偏门?对理性思考的科目感兴趣,对政治历史文学等方面不感兴趣😄
@hongkong670
2 года назад
厲害厲害,我自己看書完全不懂
@michelyupeng
8 месяцев назад
我高中也是大专,父亲和姐姐都是博士,妈也是医生,木头估计和我一样高中喜欢干自己喜欢干的事,没有用心读书,关键中国教材不好,反人性,我绝对同意
@biogirl18
Год назад
挺喜欢你的视频风格, 但是16:45 处不是点积哦. 那就是矩阵乘法.
@michelyupeng
8 месяцев назад
矩阵没有乘法😅,矩阵乘法实际是矩阵的transformation, 理解了点积,你就理解了矩阵乘法,矩阵乘法是矩阵向量坐标变换,从一个矩阵维度空间转换到另一个矩阵空间
Далее
25:50
“神经网络”是什么?如何直观理解它的能力极限?它是如何无限逼近真理的?
Просмотров 29 тыс.
30:17
“交叉熵”如何做损失函数?打包理解“信息量”、“比特”、“熵”、“KL散度”、“交叉熵”
Просмотров 23 тыс.
00:33
Ничего не делаю всё видео 😴
Просмотров 745 тыс.
00:10
Bamboo Creations with Slingshots using pin #bamboo #bamboocrafts #bambooart #diy #Craft
Просмотров 4,2 млн
00:14
НОВЫЙ РОЛИК УЖЕ НА КАНАЛЕ!
Просмотров 432 тыс.
1:14:36
МОТ vs ДИМА БИЛАН | БИТВА ПОКОЛЕНИЙ | 3 СЕЗОН | 2 ВЫПУСК
Просмотров 530 тыс.
15:56
什么是卷积神经网络?卷积到底卷了啥?
Просмотров 77 тыс.
49:48
如何理解“梯度下降法”?什么是“反向传播”?通过一个视频,一步一步全部搞明白
Просмотров 26 тыс.
44:17
Milvus 向量数据库:大模型的长期记忆体
Просмотров 8 тыс.
29:47
7. 程序员的性格为什么那么轴,那都是有原因的
Просмотров 5 тыс.
26:58
从“卷积”、到“图像卷积操作”、再到“卷积神经网络”,“卷积”意义的3次改变
Просмотров 72 тыс.
38:45
【人工智能】万字通俗讲解大语言模型内部运行原理 | LLM | 词向量 | Transformer | 注意力机制 | 前馈网络 | 反向传播 | 心智理论
Просмотров 70 тыс.
18:44
三大致命傷 看懂 Gogoro 獨角獸光環消失的原因|#聽了財知道 EP208
Просмотров 262 тыс.
59:47
softmax是为了解决归一问题凑出来的吗?和最大熵是什么关系?最大熵对机器学习为什么非常重要?
Просмотров 13 тыс.
22:07
“损失函数”是如何设计出来的?直观理解“最小二乘法”和“极大似然估计法”
Просмотров 22 тыс.
00:33
Ничего не делаю всё видео 😴
Просмотров 745 тыс.