Тёмный
王木头学科学
王木头学科学
王木头学科学
Подписаться
一个天文摄影的极简入门
41:03
8 месяцев назад
Комментарии
@wapapaya
@wapapaya 22 часа назад
Thanks!
@johnding2010
@johnding2010 День назад
14:37 矩阵表达式是不是错了, 第一部分是不是[a, b]
@stacystpierre6635
@stacystpierre6635 День назад
太厉害了,我本来是来学习机器学习的,这个是最好的导论,也让我保持敬畏,无数次赞叹up数学功底,应用和思考神奇结合,视频做得更好,思维巧妙,数学史如数家珍,我深感数学的奥秘,古希腊logic学派甚有道理
@zhehan2724
@zhehan2724 День назад
不太理解为什么对称矩阵变换会保证内积不变。
@ztc106
@ztc106 3 дня назад
影片很棒,中國把「row」翻譯為「行」,而台灣把「row」翻譯為「列」,導致我在看影片的時候,經常會搞混淆
@stevexiao1488
@stevexiao1488 4 дня назад
喜欢你的思考方式,你是当教授的料,可以考虑变换一下职业。
@symbolqin
@symbolqin 4 дня назад
由浅入深,讲得非常好,感谢博主的分享!
@zhizhenghuang
@zhizhenghuang 5 дней назад
看不懂
@chaunceywang6867
@chaunceywang6867 6 дней назад
行列式点过程在推荐算法多样性中有应用
@linklm780
@linklm780 7 дней назад
大开眼界,谢谢你的工作。关于这个视频你有什么文献可以参考的吗?
@李冰-m7h
@李冰-m7h 9 дней назад
太强了,讲得真好!
@李冰-m7h
@李冰-m7h 9 дней назад
吊炸天的人物,讲的真好!
@user_utb
@user_utb 10 дней назад
其实“极限”、“无穷小”“无穷大”可以有另一种方法概括。无穷小 = “要多小就有多小”,无穷大 = “要多大就有多大” 围绕这个定义,所有的概念阻塞迎刃而解
@csqgb9801
@csqgb9801 11 дней назад
就此妥协,给「不合格」产品开了绿灯,整个三峡工程,都将变成一枚定时炸弹......
@周玉林-m1l
@周玉林-m1l 16 дней назад
讲得太好了,要是中学时老师像你这么讲,说不定我能考上北大清华😄
@周玉林-m1l
@周玉林-m1l 17 дней назад
麦克斯韦方程,第一个式子,电场等于,电荷的空间密度除以一个常量。
@AndreHeadley-e4v
@AndreHeadley-e4v 17 дней назад
Anderson Maria Thompson Michael Harris Sandra
@carolynlin3444
@carolynlin3444 18 дней назад
这个真不错啊
@ztc106
@ztc106 20 дней назад
沒想到我二年就看過,現在再看一次。之前的影片,entropy 部分,log 的底數2,這次 log 的底數為 e。Up主在 bili bili 解釋「以2为底,log计算出来的信息量单位是bit,以e为底计算出来的信息量单位是纳特/nats,本质相通,单位不同。」
@磊哥聊中国
@磊哥聊中国 22 дня назад
4:20 ,我同意。我小学的时候就已经把这个问题想清楚了,那个时候我问老师,他们都觉得我有病。
@jerryhuang3565
@jerryhuang3565 22 дня назад
如果是近期如llama 3.1以後的,0:29 這張圖已經有省略的一些部分
@王韬-b2c
@王韬-b2c 23 дня назад
我也买了本花书当深度学习入门读物,读后对这本书的评价很低。这本书当成知识手册绝对优秀,但作为入门教材绝对不合格!全书只讲正确且深刻的学问和公式,不讲深入浅出的原理讲解,陡峭的学习难度劝退的深度学习入门者绝对比它教会的学生多得多。
@周玉林-m1l
@周玉林-m1l 23 дня назад
讲得太好了,非常喜欢你的思维
@hanyanglee9018
@hanyanglee9018 24 дня назад
我只看了标题,简单说一句,cnn是参数绑定的fcnn,输入参数的元素之间是互相不相乘的。很明显你的标题都是错的。
@wkaing
@wkaing 23 дня назад
也许你说的对,可以写篇论文和这篇论文的作者讨论一下。《On the Relationship between Self-Attention and Convolutional Layers》arxiv.org/abs/1911.03584v2
@mosdeo2000
@mosdeo2000 26 дней назад
「能靠搜索引擎解決的,堅決不去看教材」。有時候快,有時候是彎路,很難說好或不好。
@silent7wang
@silent7wang 28 дней назад
感觉现实世界就是没有必然事件,这个在怀疑论提出过了。
@王韬-b2c
@王韬-b2c 29 дней назад
太精彩了,感谢老师,感谢油管。我两个小时学到了一整个大学期间都没理解到的世界运行规律
@janewu2022
@janewu2022 Месяц назад
看了不下五遍。总于明白了,我的理解是,在这里“梯度公式”起到了一个“拆出分量”的作用。 这个点困扰了我很久,以前一直不知道为啥这里要一定要出现梯度公式。 本质,和“切西瓜”这个方法是一样的,就是相当于“最棒的切西瓜“方式。 😂
@vivisol-qi
@vivisol-qi Месяц назад
妙啊
@rayrmd6806
@rayrmd6806 Месяц назад
说的很棒,问正确的问题,学习的是一种思想,思路,方法,逻辑思维。以现在的技术发展和方法手段知识易得,而思路,模式才是最难的。
@kennykang3053
@kennykang3053 Месяц назад
这个up主太厉害啦
@BigggRicee
@BigggRicee Месяц назад
这玩意不是挂学生科用的神器吗 如果你想提高学生挂科率 就出傅里叶 然后把分值订的高高的😂😂
@sciab3674
@sciab3674 Месяц назад
有个好老师多重要,跟我一样学了白学😂 现在才知道这么有用
@stevejin9459
@stevejin9459 Месяц назад
到了普朗克常量的微观尺度,任何东西(包括时间),都是整数倍的了,在物理世界里,就可以对齐了。为什么pi还是无穷的?
@makoto.99
@makoto.99 Месяц назад
非常好🎉
@hys-v6m
@hys-v6m Месяц назад
感觉位置编码那部分好难😮‍💨
@linpengteng
@linpengteng Месяц назад
不明觉厉,学习~
@mainerjasoon1501
@mainerjasoon1501 Месяц назад
真正的学习者!
@bulrush08
@bulrush08 Месяц назад
作者的比喻非常有趣,很有启发性。很多现实都不是简单的,是复杂的,难以定义的。这样的复合事务,就完全可以用一个神经网络来“定义”
@ping_wu
@ping_wu Месяц назад
Thanks!
@benny81305
@benny81305 Месяц назад
這頻道是寶藏嗎?
@martinma5417
@martinma5417 Месяц назад
非常感谢!!!!!深受启发!!!
@mainerjasoon1501
@mainerjasoon1501 Месяц назад
太宝贵了
@johanneshuang6718
@johanneshuang6718 Месяц назад
強!
@benny81305
@benny81305 Месяц назад
我是不是太晚遇到這個頻道
@nanzhou2301
@nanzhou2301 Месяц назад
说的真好,作为一个ML工程师很惭愧,已关注。以后多听听您的分享见解。
@advancelll3521
@advancelll3521 Месяц назад
傅里叶变换,就是把时域的原函数与另外一个坐标系中的某个标准正交基做内积运算,计算出来的结果就是投影到这个基上的分量, 反傅里叶变换,就是这些标准正交基向量的加权和,得到原来的时域函数。
@advancelll3521
@advancelll3521 Месяц назад
线性代数应该这样学第三版
@hongliangli4959
@hongliangli4959 Месяц назад
可以专门解释一下哥德尔不完备性定理吗?
@eggdog
@eggdog Месяц назад
怎麼過這麼久還沒有新影片😭😭