Тёмный

【 VQ-VAE 시각화로 설명 】 

ImcommIT
Подписаться 20 тыс.
Просмотров 2,5 тыс.
50% 1

Опубликовано:

 

1 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 9   
@jayjayjay630
@jayjayjay630 9 дней назад
형 옆에 앉혀두고 내가 읽는 논문 다 영상으로 만들게 시키고싶다...
@윤석현-r5q
@윤석현-r5q 5 дней назад
안녕하세요, 좋은 영상 감사합니다. 임커밋님의 영상으로 VQ-VAE를 처음 공부했을 때, reconstruction, embedding, commitment loss를 보며 quantization한 각 latent space는 embedding loss에 의해 본래 인코더의 출력과 가까워지고, reconstruction loss에 의해 reconstruction도 점차 잘할텐데 commitment는 왜 필요하지 라는 생각을 했었습니다. 알고 보니 commitment loss가 없으면 reconstruction loss에 의해 각 latent space는 서로 멀어지려 할 것이고, 이때 embedding loss도 무한히 커질 수 있는 문제 때문에 commitment loss가 필요하다고 하더군요. 임커밋님 영상 덕분에 도움이 많이 되었습니다. 감사합니다.
@류현석-n5b
@류현석-n5b 6 дней назад
선생님 제가 빡세게 홍보하겠습니다
@류현석-n5b
@류현석-n5b 6 дней назад
ㅅㅅ 야미
@testtest7651
@testtest7651 9 дней назад
형님 혹시 vision language model은 관심 없으신가요? llava같은거... 혹시 한번 리뷰해주시면 감사하겠습니다 ㅜ.ㅜ 한달째 연구 진전이 없네요 모델이 잘 동작하지 않아서... 왜 그런지 정확한 이유를 모르겠습니다. projection layer만 따로 학습 시키는 이유도 모르겠구요.. 부탁드립니다! ㅜㅜ
@lcg6554
@lcg6554 9 дней назад
왔다 내야동
@bopark1783
@bopark1783 8 дней назад
대충 임커밋그는신인가라는 댓글
@Yacktalkun
@Yacktalkun 9 дней назад
내가아는 비지도학습 제일 잘아는 남자..
@qwerasd1
@qwerasd1 9 дней назад
이것만을 기다려왔습니다..
Далее
New Breakthrough on a 90-year-old Telephone Question
28:45
AI can't cross this line and we don't know why.
24:07
Просмотров 883 тыс.
#慧慧很努力#家庭搞笑#生活#亲子#记录
00:11
Attention/Transformer 시각화로 설명
30:02
Просмотров 16 тыс.
VAE 시각화로 설명
24:15
Просмотров 6 тыс.
#慧慧很努力#家庭搞笑#生活#亲子#记录
00:11