Тёмный

Crea un cliente de Ollama en Streamlit y ejecuta modelos de lenguaje localmente  

El Loco de los Datos
Подписаться 380
Просмотров 221
50% 1

🤖 ¡Streamlit + Ollama: La combinación perfecta para la programación! 🤖
Aprende a crear una aplicación web con Streamlit que te permita cargar y ejecutar modelos de lenguaje como Codeqwen para obtener asistencia en tus proyectos de programación.
#Streamlit #Ollama #IA #DesarrolloWeb #Programación
☕Apoya el canal: ko-fi.com/eldld
🤓Crees que te puedo colaborar? Contáctame forms.gle/7ENo...
Aprende Ciencia de datos, Python, Power BI, Tableau y más con Datacamp: datacamp.pxf.i...
Github: github.com/gca...
En este tutorial, vamos a mostrarle cómo utilizar Streamlit para crear un cliente local para Ollama, un poderoso modelo de lenguaje que puede ayudarlo con tareas de programación. También demostraremos cómo cargar y utilizar el modelo CodeQwen para asistir con tareas de programación en Streamlit.

Опубликовано:

 

16 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 2   
@elalfa100
@elalfa100 5 дней назад
Fantástico. Probando...
@ElLocodelosDatos
@ElLocodelosDatos 5 дней назад
Espero que te funcione bien el ejemplo
Далее
Cursor AI tutorial for beginners
40:35
Просмотров 55 тыс.
Agent Zero 🤖 Free & Local models
15:21
Просмотров 2,3 тыс.
Let's Create a Compiler (Pt.1)
1:11:03
Просмотров 516 тыс.
LANGCHAIN 🤯 Chateando con un PDF
13:04
Просмотров 18 тыс.
I Never Want To Build Authentication Any Other Way
2:03:20
ICML 2024 Tutorial: Physics of Language Models
1:53:43
Просмотров 19 тыс.
Kotlin After 2.0 | Talking Kotlin #133
1:06:31
Просмотров 14 тыс.