En los últimos vídeos, la petición más popular ha sido, ¿cómo puedo desplegar esta solución en una intranet para varios clientes? Hoy os explico distintas configuraciones para servir modelos LLM a través de la red local utilizando el servicio Ollama junto con Open WebUI. En los ejemplos usaremos Windows 11, pero esta configuración puede replicarse también con equipos Linux.
¡Cualquier duda, sugerencia o comentario es bienvenido!
23 фев 2024