Лучшее на RU-vid
Кино
Авто/Мото
Видеоклипы
Животные
Спорт
Игры
Приколы
Развлечения
Хобби
Наука
Авторизоваться
Зарегистрироваться
Watching Neural Networks Learn
25:28
Embeddings - EXPLAINED!
12:58
Мубориз Усмонов & Валиҷон Азизов - Эй ёр / Muboriz Usmonov ft. Valijon Azizov - Ey Yor (2024)
03:19
АКВАРИУМ ИЗ БУДУЩЕГО - 240 ДНЕЙ СПУСТЯ
08:36
Беременная кошка рожает! Сколько котят родилось / SANI vlog
37:52
Ворвался в кадр 💪😃 #власовакотораяева #евавласова
00:13
BERT vs GPT
CodeEmporium
Подписаться 121 тыс.
Просмотров 65 тыс.
50%
1
Видео
Поделиться
Скачать
Добавить в
#machinelearning #shorts #deeplearning #chatgpt #neuralnetwork #datascience
Опубликовано:
18 янв 2023
Поделиться:
Ссылка:
Скачать:
Готовим ссылку...
Добавить в:
Мой плейлист
Посмотреть позже
Комментарии :
23
@darshantank554
Год назад
One is for Natural language understanding and another is for Natural language generation
@Ram_jagat
Месяц назад
true
@borntodoit8744
11 дней назад
Remember it as INPUT>MODEL >OUTPUT MODEL INPUT (NLU) - txt recognition, vision recognition/image/movie, sound recognition/voice, MODEL OUTPUT (NLG) -txt generation, image/movie generation, sound/voice generation + tool integration MODEL PROCESSING -Basic (classification summeration extraction) advanced (reasoning, planning, orchestration)
@VarunTulsian
Год назад
this is very useful. Just wanted to add that the gpt decoder doesn't have the cross attention in the transformer block.
@Tech_kenya
10 месяцев назад
What is cross attention
@methylphosphatePOET
9 месяцев назад
@@Tech_kenya It's when word vectors reference other word vectors as opposed to just referencing themselves.
@imran7TW
17 дней назад
@@methylphosphatePOET so kinda the opposite of self attention?
@cs101-qm2ud
5 месяцев назад
Wonderfully put.
@CodeEmporium
5 месяцев назад
Thanks a lot :)
@JillRhoads
7 месяцев назад
I hadnt known that BERT was an acronym and had been wondering why the Sweden LLM was called Bert. I wonder if this is why. Thanks for the info!
@maninzn
Год назад
Great explanation. For eg, if I have to read all the client emails and understand their requirements and auto create tasks based on that prediction, which model should I go for? BERT or GPT?
@vladislavkorecky618
11 месяцев назад
What if I stack both encoders and decoders? Do I get some BERTGPT hybrid?
@davronsherbaev9133
10 месяцев назад
there is also Whiser model, that has similar facebook BART decoder part, but has audio decoder.
@nicholaszustak6299
10 месяцев назад
So BERT doesn’t have a decoder? Did I misunderstand
@contactdi8426
3 месяца назад
Can you please explain about their training process?
@Dr_Larken
Год назад
Bert also Drives a trans am! Jokes aside I do appreciate your videos!
@saimadhaviyalla5682
9 месяцев назад
transformer models are usually parallelly run right?
@eugeneku3239
8 месяцев назад
Not when it's decoding. No.
@hubgit9556
11 месяцев назад
good
@usama57926
Год назад
I love you ❤
@obieda_ananbeh
Год назад
Awesome 👏
@CodeEmporium
Год назад
Thanks So much
Далее
25:28
Watching Neural Networks Learn
Просмотров 1,1 млн
12:58
Embeddings - EXPLAINED!
Просмотров 4,8 тыс.
03:19
Мубориз Усмонов & Валиҷон Азизов - Эй ёр / Muboriz Usmonov ft. Valijon Azizov - Ey Yor (2024)
Просмотров 207 тыс.
08:36
АКВАРИУМ ИЗ БУДУЩЕГО - 240 ДНЕЙ СПУСТЯ
Просмотров 508 тыс.
37:52
Беременная кошка рожает! Сколько котят родилось / SANI vlog
Просмотров 290 тыс.
00:13
Ворвался в кадр 💪😃 #власовакотораяева #евавласова
Просмотров 70 тыс.
7:54
How ChatGPT Works Technically | ChatGPT Architecture
Просмотров 707 тыс.
31:51
MAMBA from Scratch: Neural Nets Better and Faster than Transformers
Просмотров 115 тыс.
1:53
AI Agents explained in 2 minutes!
Просмотров 30
36:15
Transformer Neural Networks, ChatGPT's foundation, Clearly Explained!!!
Просмотров 582 тыс.
7:38
Which transformer architecture is best? Encoder-only vs Encoder-decoder vs Decoder-only models
Просмотров 18 тыс.
9:53
"okay, but I want GPT to perform 10x for my specific use case" - Here is how
Просмотров 807 тыс.
44:26
What are Transformer Models and how do they work?
Просмотров 97 тыс.
19:23
Informer: Time Series Attention Architecture
Просмотров 1,2 тыс.
1:56:20
Let's build GPT: from scratch, in code, spelled out.
Просмотров 4,3 млн
15:36
GPT function calling in a nutshell
Просмотров 35 тыс.
03:19
Мубориз Усмонов & Валиҷон Азизов - Эй ёр / Muboriz Usmonov ft. Valijon Azizov - Ey Yor (2024)
Просмотров 207 тыс.