Лучшее на RU-vid
Кино
Авто/Мото
Видеоклипы
Животные
Спорт
Игры
Приколы
Развлечения
Хобби
Наука
Авторизоваться
Зарегистрироваться
BERT 论文逐段精读【论文精读】
45:49
Swin Transformer论文精读【论文精读】
1:00:22
11 ming dollarlik uzum
00:43
Вышивка с Брэдли Купером 🐺 #мягкова #юмор #женскийстендап #standup #вышивка #волки
00:40
Трудности СГОРЕВШЕЙ BMW M4!
49:41
We finally APPROVED @ZachChoi
00:31
ViT论文逐段精读【论文精读】
跟李沐学AI
Подписаться 81 тыс.
Просмотров 50 тыс.
50%
1
Видео
Поделиться
Скачать
Добавить в
更多论文:github.com/mli...
Опубликовано:
27 сен 2024
Поделиться:
Ссылка:
Скачать:
Готовим ссылку...
Добавить в:
Мой плейлист
Посмотреть позже
Комментарии :
47
@xuzhang2431
2 года назад
讲得太棒了!非常感谢!!
@xyh6552
8 месяцев назад
cnn和transformer基本上是同一件事情,只不过cnn更先进在特征就是tags,trasformer先进在不用一个单位一个单位滑动,但是实际上特征层和tags是一件事情的话特征层比tags的attention内积更高效,这类似于用所有basis和前几个特征函数近似,trasformer低效在要标注和attention本身,高效在不需要一个单位一个单位摞
@chrischen6
11 месяцев назад
謝謝老師講解 非常清楚 很受用
@越程越香
Год назад
感謝大神細心講解
@louisyuliu7200
Год назад
感谢老师精彩的讲解和清楚的分析!
@huangjames8130
Год назад
所以長話短說 先用CNN(或其他方法)得到足夠小的feature map,再用transformer跑
@alphaprofold5707
2 года назад
来龙去脉,前因后果, 讲的太好了
@Rocky-px8jg
2 года назад
谢谢作者分享!
@lionhuang9209
2 года назад
谢谢讲解!
@twyunghui
2 года назад
謝謝 講解得非常清楚
@geesehoward8838
Год назад
讲得太仔细了,非常感谢!!
@tedmsxu
Год назад
这个人的水平至少是国内优青水平~!
@Zhichaodeng2023
11 месяцев назад
讲的很清透!点赞
@muyuanliu3175
6 месяцев назад
讲的真的好
@lionhuang9209
2 года назад
Great presentation!
@zeweichu550
Год назад
讲得非常好👍学习了
@incameet
Год назад
What is the name of the speaker?
@baijiu_yaya
8 месяцев назад
44:15处,应该是√d而不是d/2
@x7lwavuj976
2 года назад
老師整容了?
@albertwang5974
2 года назад
这是另外一个人!
@nicolezhao9597
2 года назад
请问老师叫什么名字?
@量化作手
2 года назад
怎么找不到 老师的 VITS 解读了呢?
@Kane-s2e
Год назад
為什麼是224/16=14 然後input = 14*14 為何不是input = 16*16 input 是一個一個patch 的意思嗎?
@huachengli1786
9 месяцев назад
我的理解和你一样。一张图类比一句话。所以一个patch类比于一个词。如果word embedding 是512, 那ViT里对应的就是16x16。
@huachengli1786
9 месяцев назад
你理解的是对的,所以文章标题是 An Image is Worth 16x16 words🤣
@Kane-s2e
9 месяцев назад
@@huachengli1786 哈哈我還沒有發現
@yafengyang1099
Год назад
讲的太好了
@zhanlucas935
2 года назад
感谢感谢!!!
@xyh6552
8 месяцев назад
消融实验结果差不多是因为加是完全不对的,加所带来的特征在动力系统里面全都平均掉了
@xyh6552
8 месяцев назад
位置信息如何加进去是个编码问题,要尽可能的保证信息无损的同时占用空间小,f(attention(x),position)应该比直接把位置信息加在x里面好
@dayeye2011
6 месяцев назад
这位帅哥是谁?
@liqiushui2427
Год назад
44分30秒不应该是根号D嘛
@xufenghu3063
2 года назад
嘿嘿 来了
@jinhuizhang702
2 года назад
沐神呢
@hailuyin9915
Год назад
大神
@jeffreyhao1343
2 года назад
------------------------------- Pretty good, done. -------------------------------
@jeffreyhao1343
2 года назад
ViT-FRCNN and SETR
@jeffreyhao1343
2 года назад
Transformer论文逐段精读: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-nzqlFIcCSWQ.html
@patrickzhang-b3j
Год назад
这个哥们讲的内容很喜欢!👍
@jsksiraybjgzvjieqp-u6d
18 дней назад
Allen Sarah Miller Steven Anderson Steven
@pantan4206
2 года назад
感谢老师!B站看完了来这里再来点赞
@yifanbai3072
2 года назад
Zhu老师讲的很棒,感谢
@nicolezhao9597
2 года назад
请问老师叫什么名字?
@grhaonan
Год назад
Transformer base 的head 数目好像是8吧
@morningstar618z8
Год назад
讲得太好了,清晰明了,幽默风趣,全程无尿点!
@mingzhaochina
Год назад
真棒!
@扶墙种冬瓜
2 года назад
哈哈
Далее
45:49
BERT 论文逐段精读【论文精读】
Просмотров 31 тыс.
1:00:22
Swin Transformer论文精读【论文精读】
Просмотров 33 тыс.
00:43
11 ming dollarlik uzum
Просмотров 158 тыс.
00:40
Вышивка с Брэдли Купером 🐺 #мягкова #юмор #женскийстендап #standup #вышивка #волки
Просмотров 769 тыс.
49:41
Трудности СГОРЕВШЕЙ BMW M4!
Просмотров 1 млн
00:31
We finally APPROVED @ZachChoi
Просмотров 6 млн
49:34
Google Ads Tutorial For Medical Practices and Doctors
Просмотров 61
29:56
An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale (Paper Explained)
Просмотров 340 тыс.
47:04
MAE 论文逐段精读【论文精读】
Просмотров 15 тыс.
49:32
Transformer
Просмотров 203 тыс.
1:27:05
Transformer论文逐段精读
Просмотров 404 тыс.
13:09
Vision Transformer (ViT) 用于图片分类
Просмотров 26 тыс.
46:17
GAN论文逐段精读【论文精读】
Просмотров 20 тыс.
16:51
Vision Transformer Quick Guide - Theory and Code in (almost) 15 min
Просмотров 77 тыс.
1:38:26
CLIP 论文逐段精读【论文精读】
Просмотров 31 тыс.
15:49
我是如何快速学习一个领域的
Просмотров 1,5 млн
00:43
11 ming dollarlik uzum
Просмотров 158 тыс.