Тёмный

Large Model Training and Inference with DeepSpeed // Samyam Rajbhandari // LLMs in Prod Conference 

MLOps.community
Подписаться 25 тыс.
Просмотров 7 тыс.
50% 1

Опубликовано:

 

16 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 6   
@saratbhargavachinni5544
@saratbhargavachinni5544 Год назад
This talk is pure gold! Thanks for sharing!
@sachinudas8446
@sachinudas8446 10 месяцев назад
happy to see someone from Nepalese root at centre of Ai and contributing for DL training to AI community worldwide
@ReviewsInuteis
@ReviewsInuteis Год назад
Amazing!!
@saratbhargavachinni5544
@saratbhargavachinni5544 Год назад
Can u guys pls post the slides?
@brandomiranda6703
@brandomiranda6703 10 месяцев назад
Main insight for me is that llama 65B can be trained on a single GPU with deep speed. Anyone know how?
@jdoejdoe6161
@jdoejdoe6161 Год назад
Is it possible to host LLM in DeepSpeed and have APIs just like OpenAI API for different apps? What is the cost?
Далее
MINECRAFT CREPPER EXPLODES SHARK PUPPET!
00:15
Просмотров 8 млн
Mini bag sealer
00:58
Просмотров 3,8 млн
Microsoft DeepSpeed introduction at KAUST
1:11:36
Просмотров 7 тыс.
Key Value Cache in Large Language Models Explained
17:36
Turing-NLG, DeepSpeed and the ZeRO optimizer
21:18
Просмотров 16 тыс.
Deep Dive: Optimizing LLM inference
36:12
Просмотров 21 тыс.
Fine-tuning LLMs with PEFT and LoRA
15:35
Просмотров 125 тыс.
DeepSpeed: All the tricks to scale to gigantic models
39:42