Тёмный

¡Ollama ya funciona en Windows! Ejecuta modelos de texto y visión con su interfaz webui y más! 

La Hora Maker
Подписаться 17 тыс.
Просмотров 12 тыс.
50% 1

En el video de hoy vamos a explicar cómo puede instalarse el programa Ollama en Windows, utilizando un nuevo instalador que acaba de ser anunciado. En el episodio de hoy veremos cómo instalar modelos de texto y modelos de imagen. Exploraremos también Ollama WebUI, una interfaz web de código abierto, que nos facilita la interacción con el servicio que acabamos de instalar desde una interfaz visual. Vamos a generar texto, leer imágenes, consultar nuestros documentos e incluso probaremos a acceder a sitios web.
Aquí os dejo los enlaces para la instalación:
- Ollama: ollama.com/
- Ollama WebUI: github.com/oll...
Dudas, comentarios, ideas, sugerencias... ¡os leo aquí, en los comentarios!

Опубликовано:

 

29 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 59   
@Mike-dl7gt
@Mike-dl7gt 3 месяца назад
la interfaz ha cambiado, hace falta actualizar este tutorial
@Kaesarfdez
@Kaesarfdez 7 месяцев назад
El video es muy educativo. Encuentro algunas diferencias en el interfaz pero supongo que serán cambios que se vayan produciendo mientras pulen la UI. Open WebUI Version v1.0.0-alpha.100 Ollama Version 0.1.25 Por otra parte, no he logrado cargar el modelo "Solar" aunque he cargado "based dolphin mixtral" y "llava" sin problemas.
@LaHoraMaker
@LaHoraMaker 7 месяцев назад
Cambiaron el nombre del proyecto 90 minutos después de publicar el video jajaja menuda suerte la mía!
@LaHoraMaker
@LaHoraMaker 7 месяцев назад
Para más información: github.com/open-webui/open-webui/pull/777 :)
@Kaesarfdez
@Kaesarfdez 7 месяцев назад
Bueno a @LaHoraMaker , que todo sea eso en la vida. ;-D
@royotech
@royotech 7 месяцев назад
Me parece que este es el mejor: 💥ollama run sammcj/smaug:72b-q4_k_m (consume mucha máquina , dicen que el que le puede plantar cara ChatGPT 3.5) también descargue: 👀 ollama run sammcj/smaug-mixtral-v0.1:70b-q3_k_m (lentísimo) 👎ollama run Mistral (no sirve 💩)
@jazt89
@jazt89 Месяц назад
Tengo una duda, por que cuando le doy clic a "view logs" no se abre una pantalla negra como a ti, solo me abre una carpeta con archivos de bloc, que programa debo usar o que debo hacer para que esto no ocurra?
@LaHoraMaker
@LaHoraMaker 21 день назад
Posiblemente habrán actualizado el servidor Ollama. En la versión original sólo tenían un fichero de log y las versiones más nuevas ofrecen varios. Si haces doble click en los ficheros, podrás abrirlos con tu editor de texto favorito. Espero que te resulte útil!
@canaljoseg0172
@canaljoseg0172 5 месяцев назад
Lo que pasa es que algunos PDF vienen protegido, y no permite copiar o pegar, o tiene un certificado. Por lo cual no puede modificar el sistema.
@LaHoraMaker
@LaHoraMaker 5 месяцев назад
En ese caso puedes hacer captura de pantalla desde el sistema operativo y pasar la imagen al modelo de visión :)
@royotech
@royotech 7 месяцев назад
🔥🔥Como los hago para montarlo en un PC en la casa y que se conecten por intranet otros 4 usuarios? Para eso quisiera aprender a usarlo y lo pondría en una Orange Pi 5. Usaría Mixtral 7B. Luego quiero aprender a hacerle Fine Tuning, por ejemplo con codificación C para placas Arduino y ESP32.
@JaviArte
@JaviArte 2 месяца назад
Lo primero, gracias por el mini-tuto :) Ahora ya está disponible el nuevo modelo, Llama 3.1, e incluso el de tamaño 8b, es bastante competente. Ya no es tan "tonto" como los anteriores ejecutados en local. Por otro lado, la interfaz web para interactuar con el modelo, ahora se llama "Open WebUI" en lugar de "Ollama WebUI". PD: para arrancar el "Open WebUI" veo que era necesario instalar Docker... y madre mía lo pesado que es y cómo ralentiza el equipo :(
@joshmontes7308
@joshmontes7308 2 дня назад
tengo una pregunto bro esta censurado he notado que no escriben sobre temas políticos o de guerra donde los gringos son los malos jejeje
@gustavopelua
@gustavopelua 4 месяца назад
Muy buen tutorial!! como se hace para cargar modelos gguf en ollama en windows?
@gorkarodriguez
@gorkarodriguez 5 месяцев назад
Hola! Un video genial, puedes cambiar la carpeta de instalación de los modelos añadiendo la variable de entorno OLLAMA_MODELS. Asi los puedes instalar y usar desde D://, E:// o el que quieras. Un saludo
@LaHoraMaker
@LaHoraMaker 5 месяцев назад
Gracias por compartir esta opción de configuración!
@JorgeLamaVarela
@JorgeLamaVarela 7 месяцев назад
Un gran descubrimiento el Ollama Web UI, César. A ver si lo acaban de pulir, pero está interesante.
@LaHoraMaker
@LaHoraMaker 7 месяцев назад
Las últimas versiones están funcionando genial. Parte de las cosas que no funcionaban en este video, están ya resueltas y mejoradas.
@royotech
@royotech 7 месяцев назад
Excelente video como siempre... sin desperdicios 👏🏻👏🏻👏🏻
@javaboy6581
@javaboy6581 5 месяцев назад
Grande, como siempre! Llevo tiempo probando estos modelos desde que nos enseñaste en los primeros videos y me he dado cuenta que son un churro, te aburres en seguida. Me quedo con gpt4 de pago, les da mil vueltas. Simplemte no hay color. Pero me encanta, a ver si siguen mejorando y algun dia pueden tener uso local
@LaHoraMaker
@LaHoraMaker 5 месяцев назад
Según las tareas, algunos de estos modelos pueden funcionar decentemente, pero ninguno es tan flexible ahora mismo como GPT-4. No se si has tenido oportunidad de probar los nuevos modelos grandes con pesos abiertos como Command R+ de Cohere, Llama 3 70B o los Mixtral de 8x7B o 8x22B. ¡Muchas novedades!
@intelp4ht
@intelp4ht 7 месяцев назад
muy bueno este video! por favor mas de esto!!! Espero que pronto mejore el RAG, me serviria para que usemos varias personas en un equipo, para el trabajo diario.
@LaHoraMaker
@LaHoraMaker 7 месяцев назад
Gracias por la idea! Los últimos videos que he creado responden precisamente a esta cuestión!
@JoseLabeaga
@JoseLabeaga 4 месяца назад
Excelente video, enormemente útil. Muchas gracias!!!
@LaHoraMaker
@LaHoraMaker 4 месяца назад
Gracias por comentar Jose!
@terranovich8471
@terranovich8471 7 месяцев назад
Amigo ya salió el modelo QWEN de Alibaba y la ventaja principal es la eficacia tanto en ingles como en multi-idiomas, sería bueno probarlo y en que hardware sencillo y humilde desplegarlo! Espero pronto ese video, sería genial
@LaHoraMaker
@LaHoraMaker 7 месяцев назад
Gracias por la sugerencia. Justo esta semana he estado probando Yi y tengo ganas de probar QWen (y su variante Smaug) para ver que tal se comportan en español. Lo único que no me acaba de convencer de Qwen es la licencia, que tiene algunas clausulas poco colaborativas.
@royotech
@royotech 7 месяцев назад
Al final ganara el que mejor use el RAG. Eso es lo que al final le da utilidad.
@mjosepth
@mjosepth 4 месяца назад
Gracia por tu aportes, estoy utilizando ollama con AnythingLLM, espero puedas comentar acerca de como utilizar en conjuto , por el momento estoy usado mis documento en PDF y realizar consulta .. saludos
@LaHoraMaker
@LaHoraMaker 4 месяца назад
Gracias por las recomendaciones. Me están llegando muchos comentarios positivos acerca de AnythingLLM así que... ¡tocará probarlo!
@cazadoresdecryptos
@cazadoresdecryptos 6 месяцев назад
buenas, y como se hace para actualizar Ollama?
@LaHoraMaker
@LaHoraMaker 6 месяцев назад
En Windows, tan sólo hay que descargarse el nuevo ejecutable y hacer doble click. Con esto actualizas el binario y ...¡listo!
@ithanhunt3250
@ithanhunt3250 6 месяцев назад
*EL USO MAS COMUN Q SE LE PUEDE DAR ESTANDO SIN INTERNET EN LOCAL, ES DE UNA **#ENSICLOPEDIA** Q RESPONDA TODO TIPO DE PREGUNTAS, Y OTRA SERIA DE ASISTENTE, Y OTRA SERA DE TRADUCOR Q TRADUSCA TODO EL TEXTO Q UNO LE ESCRIBA Y ESPERO Q MUY PRONTO LE AGREGEN LA FUNCION DE GENERAR IMAGENES DIRECTAMENTE YA Q DICEN Q SI LO HARAN EN UN FUTURO MUY CERCANO*
@LaHoraMaker
@LaHoraMaker 6 месяцев назад
Estos modelos se han entrenado con parte del contenido de Wikipedia, así que es capaz de producir resultados similares. Ciertamente se podría emplear para acceder a documentos locales y producir nuevos contenidos relacionados. Para la parte de generaciónd de imagenes y texto integrados, puedes probar soluciones como LocalAI.
@joc4b4r
@joc4b4r 7 месяцев назад
Buen trabajo. Simple y didáctico. El WebUI un gran descubrimiento.
@LaHoraMaker
@LaHoraMaker 7 месяцев назад
¡El ritmo al que añaden nuevas funcionalidades al proyecto es increible!
@pamelavelasquez7244
@pamelavelasquez7244 6 месяцев назад
Buenas, por estudio voy a desarrollar un chatbot tutor lenguaje EPL, que modelo de ollama me recomienda usar, sera alimentado con documentacion especifica y ejercicios
@xxw4879
@xxw4879 5 месяцев назад
hola, he seguido los pasos pero no me aparece el modelo cuando despliego dentro de Ollama WebUI, tampoco me deja descargar modelos desde Models. Me da error LiteLLM: Invalid config passed in y ademas la interfaz no me sale igual.
@Alfretubedobeyou
@Alfretubedobeyou 6 месяцев назад
Gran aporte mi estimado. Quiero hacerte una pregunta, al estar funcionando en local, como podría llevar eso a un servidor? y que servicios recomendarías? Estoy aprendiendo sobre esto y pues soy relativamente nuevo en IA
@aitor451
@aitor451 7 месяцев назад
Esto podría ser equivalente a LM Studio, ¿verdad?
@LaHoraMaker
@LaHoraMaker 7 месяцев назад
Hola Aitor, si, esto es equivalente a LM Studio con dos diferencias notables: tiene incluida la opción de consultar tus documentos y guardar tus prompts. Y por otra parte te permite tener el servidor y el cliente en equipos distintos, así que puede usar el mismo Ollama distinta gente o equipos con menos potencia.
@aitor451
@aitor451 7 месяцев назад
Hola! He probado a darle un PDF a Solar y me lo ha resumido bien. En mi caso ha funcionado.
@LaHoraMaker
@LaHoraMaker 7 месяцев назад
Solar es un fenómenos de modelo!
@ser12369
@ser12369 7 месяцев назад
Compadre muchas felicidades por el contenido!!
@LaHoraMaker
@LaHoraMaker 7 месяцев назад
Me alegra mucho que te resulten útiles todos estos contenidos nuevos!
@HOLASMUNDO2024
@HOLASMUNDO2024 5 месяцев назад
Genio!! muy buenos videos.
@MV-001A
@MV-001A 7 месяцев назад
Niceee
@LaHoraMaker
@LaHoraMaker 7 месяцев назад
Enjoyyyy!
@jesustomas9708
@jesustomas9708 5 месяцев назад
Excelente Vídeo!
@albertinymm
@albertinymm 6 месяцев назад
Buen aporte!
@LaHoraMaker
@LaHoraMaker 6 месяцев назад
¡Gracias por comentar!
@jossejosse952
@jossejosse952 7 месяцев назад
Me dice que tiene virus
@LaHoraMaker
@LaHoraMaker 7 месяцев назад
¿Qué antivirus estás utilizando? Dado que el instalador levanta un servicio con un puerto siempre activo, quizás está siendo detectado como virus erróneamente
@jossejosse952
@jossejosse952 7 месяцев назад
Puede ser que sea falso virus, uso el Windows defender de Windows 11.
@dario61081
@dario61081 7 месяцев назад
Excelente video!
@LaHoraMaker
@LaHoraMaker 7 месяцев назад
Gracias por tu comentario Dario.
Далее
Ко мне подкатил бармен
00:58
Просмотров 119 тыс.
# Rural Funny Life Wang Ge
00:18
Просмотров 598 тыс.
DAXSHAT!!! Avaz Oxun sahnada yeg'lab yubordi
10:46
Просмотров 388 тыс.
This Llama 3 is powerful and uncensored, let’s run it
14:58
host ALL your AI locally
24:20
Просмотров 1,1 млн
Ollama - Local Models on your machine
9:33
Просмотров 96 тыс.
Ко мне подкатил бармен
00:58
Просмотров 119 тыс.