Тёмный

什么是“感知机”,它的缺陷为什么让“神经网络”陷入低潮 

王木头学科学
Подписаться 30 тыс.
Просмотров 20 тыс.
50% 1

感知机的提出带来了神经网络的繁荣,同样它的缺陷也让神经网络陷入低谷。
感知机是什么?它为什么对神经网络这么关键?
20多分钟,了解感知机。

Опубликовано:

 

23 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 48   
@solutions-ai
@solutions-ai Год назад
这里补充一下,用转置的方式来求的原因是因为速度会更快(向量化计算),如果有1w个样本,循环计算太慢了。而且转置的形式看起来也比较简洁。
@ohmygod559
@ohmygod559 Год назад
比起这节课讲的感知机,频道主的思维方式值得我学习🥰🥰🥰
@glorynv1726
@glorynv1726 2 года назад
你是人工智能自学路上的大神。太棒了!
@yingjiaguo8319
@yingjiaguo8319 2 года назад
不但讲清楚了问题,还在循循善诱的介绍方法,受益匪浅~
@practicalit5818
@practicalit5818 4 месяца назад
超牛的视频 - 刷了不止一遍哈
@axeking744
@axeking744 11 месяцев назад
感谢播主的精彩视频,一口气把几个视频看完,感觉终于明白了卷积神经网络代表了什么样的操作,同时还学习了播主的学习方法。
@giselleliu4789
@giselleliu4789 2 года назад
謝謝講解分享~ 但吹毛求疵一下 17:33 我認為 w寫成矩陣或說向量形式,有個意義是代表他是hyperplane的法向量
@hbj418
@hbj418 Год назад
这是我看神经网络教学最顺畅的专辑,非常棒🎉
@李渊-m9w
@李渊-m9w 2 года назад
讲的非常好, 赞一个
@user_3eg8cp1a2d9t.
@user_3eg8cp1a2d9t. 2 года назад
第一性原理的思考方式。
@michelyupeng
@michelyupeng 8 месяцев назад
行乘以列,点积所以必须表达成转置矩阵和矩阵相乘的写法,否则确实书写不方便
@sbphsho
@sbphsho 2 года назад
感謝知識分享
@junyang1058
@junyang1058 2 года назад
说的很好,大受启发,我是一个普通本科生
@胡月-s5h
@胡月-s5h 11 месяцев назад
真的很棒的视频,博主厉害
@user-TweetyBird
@user-TweetyBird 6 месяцев назад
你说的有道理
@haibingyu2484
@haibingyu2484 9 месяцев назад
博主确实厉害👍
@chenwilliam5176
@chenwilliam5176 Год назад
Artificial Nurual Network : Why Multi-Layer, this is a question ⁉️ Solutions exist or not exist, this is a question ⁉️
@whool4754
@whool4754 2 года назад
后面让我有点明白了为什么要深度学习
@guangminwang4152
@guangminwang4152 11 месяцев назад
表达能力好
@lirenwu8109
@lirenwu8109 Год назад
太牛了,佩服
@fengbenming1819
@fengbenming1819 9 месяцев назад
讲的很好,以后的学生有福了,如果学校老师讲不清楚,就来看这
@chenwilliam5176
@chenwilliam5176 Год назад
類神經網路是一種數學函式多層演算法, 絕非模擬大腦 神經元實體網路的運作機制🎉 由於此一函式多層演算法用圖表示, 類似大腦神經元實體網路圖,故取名為「類神經網路」❤ 它也可以取名為 「AI 教父辛頓函式多層演算法」💯
@doubleweijason9215
@doubleweijason9215 3 месяца назад
up 应该去搞讲座
@joedavid1809
@joedavid1809 2 года назад
真棒👍
@hongyuan
@hongyuan 2 года назад
这个视频展示了学霸是怎么练成的。
@skyacaniadev2229
@skyacaniadev2229 5 месяцев назад
有被数学证明出来吗?有的话还会被叫黑箱炼金术吗😂
@oscarwu5027
@oscarwu5027 Год назад
❤thanks, you save my life
@chenwilliam5176
@chenwilliam5176 Год назад
f(n) : 不要用 n ,用其它英文字元,例如 : p 比較不會導至誤解 🎉
@张大白-d3z
@张大白-d3z Год назад
讲的很明白,但是有个问题,那个多层感知机,为什么叠加后是3种情况?
@user-TweetyBird
@user-TweetyBird 5 месяцев назад
异或那个吗?是不是把x1与x2 和 非x1与非x2 合并?我耶没听懂
@hankdonald7812
@hankdonald7812 3 месяца назад
因为上面两个感知机的输出结果有三种啊,(0,0),(0,1),(1,0),所以对于第三个感知机来说,就只有三个输入了。
@shrekliao
@shrekliao Год назад
懂了
@yingjiaguo8319
@yingjiaguo8319 2 года назад
讲的太好了~
@muyuanliu3175
@muyuanliu3175 8 месяцев назад
感觉不重要的和重复的话有点多了? 不就是个非线性的事吗,从线性说起,再讲区别就足够了。而且从回归讲起会容易理解很多。
@muyuanliu3175
@muyuanliu3175 8 месяцев назад
错误的地方太多了,用阶跃函数实际上已经能实现非线性了
@muyuanliu3175
@muyuanliu3175 8 месяцев назад
而且也不是多对一,拜托
@weiwei861
@weiwei861 6 месяцев назад
你应该没有听懂
@techbays675
@techbays675 2 года назад
博主可以去做 机器学习 的研究了, 而不是 科普
@btc6235
@btc6235 2 года назад
看王木头这钻研能力, 当时为啥只考上二本? 你高中干啥了?
@wkaing
@wkaing 2 года назад
首先,高中的我的确还没有开窍。然后我觉得还有一个因素,我喜欢专研,所以总是会有各种各样的问题。我在一个四线城市接受教育,没有资源帮助我解答这些问题,所以这些心中的问题不只没能帮助我学习,反而还成了负担。
@jademoon8759
@jademoon8759 2 года назад
好的老师很重要,很多人本身有天赋, 但是被周围的环境(家长、老师、生活环境)误导甚至圈禁了思维、性格。 有的人出身在教师世家,那么这种知识资源从小就流水一样,当然占优势了。
@chenli741
@chenli741 2 года назад
@@wkaing 有没有可能是因为偏门?对理性思考的科目感兴趣,对政治历史文学等方面不感兴趣😄
@hongkong670
@hongkong670 2 года назад
厲害厲害,我自己看書完全不懂
@michelyupeng
@michelyupeng 8 месяцев назад
我高中也是大专,父亲和姐姐都是博士,妈也是医生,木头估计和我一样高中喜欢干自己喜欢干的事,没有用心读书,关键中国教材不好,反人性,我绝对同意
@biogirl18
@biogirl18 Год назад
挺喜欢你的视频风格, 但是16:45 处不是点积哦. 那就是矩阵乘法.
@michelyupeng
@michelyupeng 8 месяцев назад
矩阵没有乘法😅,矩阵乘法实际是矩阵的transformation, 理解了点积,你就理解了矩阵乘法,矩阵乘法是矩阵向量坐标变换,从一个矩阵维度空间转换到另一个矩阵空间
Далее
Ничего не делаю всё видео 😴
00:33
НОВЫЙ РОЛИК УЖЕ НА КАНАЛЕ!
00:14
Просмотров 432 тыс.
什么是卷积神经网络?卷积到底卷了啥?
15:56
Milvus 向量数据库:大模型的长期记忆体
44:17
Ничего не делаю всё видео 😴
00:33