Тёмный

Running a High Throughput OpenAI-Compatible vLLM Inference Server on Modal 

Modal Labs
Подписаться 212
Просмотров 1 тыс.
50% 1

Опубликовано:

 

23 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 9   
@connor-shorten
@connor-shorten 2 месяца назад
Incredible session!
@ModalLabs
@ModalLabs 2 месяца назад
thanks @connorshorten6311!
@ibbbyscode
@ibbbyscode 2 месяца назад
Finally, a YT channel. 👌👏
@charles_irl
@charles_irl 2 месяца назад
I hope not to disappoint!
@Jay-wx6jt
@Jay-wx6jt 2 месяца назад
Keep it up charles
@RandyRanderson404
@RandyRanderson404 2 месяца назад
This guy LLMs.
@charles_irl
@charles_irl 2 месяца назад
like my status if you remember the sesame street era
Далее
vLLM on Kubernetes in Production
27:31
Просмотров 3,4 тыс.
host ALL your AI locally
24:20
Просмотров 1,2 млн
Serve a Custom LLM for Over 100 Customers
51:56
Просмотров 21 тыс.
How to pick a GPU and Inference Engine?
1:04:22
Просмотров 3,6 тыс.