Тёмный

The FASTEST LLM Inference Endpoint Ever 

Low code No code
Подписаться 2,5 тыс.
Просмотров 364
50% 1

Subscribe and press the bell for more videos
Here we test the new Groq Inference API for free. Results are mind blowing
#groq
#llms

Опубликовано:

 

7 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 2   
@DanielVagg
@DanielVagg 6 месяцев назад
Legal language model 😂 The speed seems great, but I'm guessing the trade-off is quality. I'm guessing mixtral 8x7b knows the definition of the term "llm" normally. Do you have any data on benchmarks with the same models but using groq for inference?
@danwe5520
@danwe5520 6 месяцев назад
did not see that 😅 So far i do not br
Далее
Прохожу маску ЭМОЦИИ🙀 #юмор
00:59
Starman🫡
00:18
Просмотров 11 млн
Have You Picked the Wrong AI Agent Framework?
13:10
Просмотров 65 тыс.
Gradient Donut in Power BI using SVG | Native Visual
13:00
These are the Worst Construction Mistakes Ever Made
12:52
Elon's Big Bet On Tesla's Future | Optimus 2
18:07
Просмотров 6 тыс.
How AI 'Understands' Images (CLIP) - Computerphile
18:05
ASP.NET Core 8 Web API in Clean architecture from scratch
2:12:25