Тёмный
No video :(

Распаковываем ИИ на ваш компьютер через Ollama сервер 

НейроИнжиниринг 3000
Подписаться 2,2 тыс.
Просмотров 1,4 тыс.
50% 1

Распаковываем ИИ модель Gemma 2b от лаборатории DeepMind Google на вашем компьютере через Ollama сервер
Ollama - это изящный маленький инструмент для локального запуска больших языковых моделей

Опубликовано:

 

22 авг 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 4   
@bagman2020
@bagman2020 4 месяца назад
Блин, отличное видео. Продолжай в том же духе! ❤
@RomanoffAlex
@RomanoffAlex 4 месяца назад
спасибо!
@chrisbenson339
@chrisbenson339 2 месяца назад
Подскажите зачем распаковывать модель локальный ии? Ведь ними можно пользоваться в браузере? Расскажите отличие локального развертывания от браузера и для каких целей подойдёт локальный наведите несколько примеров. Спасибо
@chrisbenson339
@chrisbenson339 2 месяца назад
Уже узнал) сами поняли где) только начинаю изучать, не привык ещё к запросам в gpt) хорошие темы у вас, буду наблюдать🎉
Далее
КАК УСТРОЕН TCP/IP?
31:32
Просмотров 31 тыс.
Последствия блокировки YouTube
25:35
Новый фонарик в iPhone с iOS 18
00:49
Просмотров 566 тыс.
КАК НАЧАТЬ ПОНИМАТЬ LINUX (2024)
21:10