Тёмный

Exploring the Long Context Window of Llama-3.1-405B on NVIDIA Grace Hopper GH200 Superchip 

Jordan Nanos
Подписаться 426
Просмотров 456
50% 1

Опубликовано:

 

30 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 3   
@SiD-hq2fo
@SiD-hq2fo 26 дней назад
insightful! thanks brotha
@albionix
@albionix 28 дней назад
Hi Jordan, actually the document is in russian language but describes Kazachstan sities/towns and credit requirements in local currency. Still impressive demo of running local LLM capability.
@jordannanos
@jordannanos 28 дней назад
Thanks, good to know. When I opened it up in Word, the bottom left says “Kazakh”. Too late now to correct the video
Далее
host ALL your AI locally
24:20
Просмотров 1,2 млн
Fully local RAG agents with Llama 3.1
20:04
Просмотров 54 тыс.
На кого пойти учиться?
00:55
Просмотров 175 тыс.
Vim Tips I Wish I Knew Earlier
23:00
Просмотров 74 тыс.
NixOS: Everything Everywhere All At Once
15:10
Просмотров 327 тыс.
Self Hosting Has Changed My Life - What I Self Host
17:31
18 Weird and Wonderful ways I use Docker
26:18
Просмотров 347 тыс.
Why Are Open Source Alternatives So Bad?
13:06
Просмотров 661 тыс.
Getting Started with Ollama and Web UI
13:35
Просмотров 42 тыс.