Тёмный

Inteligencia artificial LLM phi3 en local comunicandose con informes de ESP32, parte 1. 

Cesar Hernandez
Подписаться 431
Просмотров 513
50% 1

Descripción de la instalación de un modelo de lenguaje en local con la aplicacion Ollama, para interactuar con informes hecho por ESP32 y sensores.
Segunda parte a este video:
• inteligencia artificia...
Página infootec:
www.infootec.n...
Referencias:
www.ollama.com/
github.com/oll...
• How to chat with your ...
github.com/ton...
• Ollama + Phi3 + Python...
github.com/ron...
huggingface.co...

Опубликовано:

 

25 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 6   
@TheLuquepedro
@TheLuquepedro 4 месяца назад
Muy bien explciado Cesar, felictiaciones. Muchos youtuber solo hablan y hablan y pocos explican. Pero lo tuyo es fantastico.
@cesarhernandezcinfo
@cesarhernandezcinfo 4 месяца назад
Muchas gracias, un saludo :)
@eliasfarias3670
@eliasfarias3670 4 месяца назад
hermano sos un crack! estaba pensando en algo parecido, comandar un invernadero con un LLM. pero pensaba usar una rasberry pi pico. muy buen contenido!
@cesarhernandezcinfo
@cesarhernandezcinfo 4 месяца назад
Muchas gracias por el comentario, el siguiente video intentaré poner acciones para que el llm active o desactive aparatos, electroválvula, luces, etc
@luisctrivino
@luisctrivino 4 месяца назад
Señor, Cesar, muy buen conocimiento, vivo en Colombia, me podría regalar su numero de contacto. Gracias
@cesarhernandezcinfo
@cesarhernandezcinfo 4 месяца назад
Claro, cualquier cosa puedes escribirme a mi correo cesarcinjordiz@gmail.com
Далее
Каха понты
00:40
Просмотров 478 тыс.
What are AI Agents?
12:29
Просмотров 560 тыс.
AI Learns to Park - Deep Reinforcement Learning
11:05
Let's build a RAG system - The Ollama Course
7:34
Просмотров 15 тыс.
Каха понты
00:40
Просмотров 478 тыс.