Hola espero estés bien, bueno han hecho algunos cambios desde que se lanzaron las versiones anteriores En este url estan unas nuevas sugerencias para lanzar el service: github.com/OpenBMB/ChatDev Saludos
Hola David espero estes muy bien, una pregunta todo este curso es a nivel jr o es un nivel un poquito mas alto? me ayudan mucho todos tus videos, una consulta mas, al dia de hoy que herramientas ademas de las que estan en el curso recomendas para tener en cuenta? Muchas gracias !
Hola espero estés bien. Diría que es un poco un poco mas que jr porque se ven algunas cosas técnicas Espero te sirvan los videos, cualquier duda que tengas por acá a la orden. Saludos
Hola espero estén bien si en efecto cualquier servicio que involucre cómo actor a un LLM de los disponibles podría ser casos de uso cómo Chatbot, RAG entre otras posibilidades
Hola espero estes bien en general se puede hacer con estos pasos Deploy con cpu 1. docker pull ollama/ollama 2. docker run -d -v $PWD/ollama:/root/.ollama -p 10134:10134 --name ollama ollama/ollama 3. docker exec -it ollama /bin/bash Deploy con gpu 1. docker pull ollama/ollama 2. Instalar complementos de nvidia y en la máquina 3. docker run -d --gpus=all -v $PWD/ollama:/root/.ollama -p 10134:10134 --name ollama ollama/ollama 4. docker exec -it ollama /bin/bash Seguramente haré un video de esto para que quede más claro
Magnifico video En mi caso tengo ollama con una api corriendo en un chatbot en wp ¿como podria hacer para configurar que las respuestas sean de este modelo con RAG? ¿Podria cambiar solo el enlace al que apunta la API?
Hola Ariel espero estés bien en ese caso habría que tener la base de datos vectorial y las operaciones se comparación. Por lo demás el modelo podría ser ese u otro
@@davidbu8248 al final me abrió, lo que pasa es que al principio empieza a crear la base de datos vectorial y a pasar a embeddings todo el código, pero no te lo dice. Y como estaba en un repo con mucho código, hasta que terminó
Hola, te he descubierto hace unas horas y me voy a poner a seguir tus cursos, una pregunta¿los recursos de drive se descargan automáticamente? Si no es así, como puedo acceder a dichos recursos, me sale que no tengo acceso a dichos datos. Gracias de ante mano, los dos videos que te he visto me han parecido muy buenas tus explicaciones y ejemplos. Gracias de antemano
Gran aporte! Gracias! Tengo una consulta, quiero hacer un modelo especializado sobre leyes de un país determinado, que recomendas? utilizar RAG o Fine-tunning? Gracias!
Hola Pablo espero estés bien Pienso que si necesita ser muy específico y garantizar precisión el fine tuning no es mala opción. Aunque si se quiere un nivel no tan específico con una buena implementación de RAG debería funcionar
Me corrió todo a la perfección!! Utilicé un pdf en español por lo que cambié a un modelo embeddding multilingüe, modificando el siguiente codigo: embedding = FastEmbedEmbeddings(model_name="sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2") Por si alguno le sirve, saludos!
Si efectivamente lo ideal sería tener al menos 8Gb de RAM. Sin embargo hay formas de quantizar los modelos en Ollama obteniendo menor precisión pero dando la posibilidad de usar menos recursos, en un próximo video estaré explicando como llevar eestos modelos a niveles comprimidos más bajos sin problemas de RAM
hola David muy bueno el curso estoy empezando en el mundo big data soy nuevo en esto ademas estoy por empesar el curso de data engeniering via online. ¿como es el dia a dia de un data engeniering? me resumirias , putos a favor puntos en contra. desde ya gracias....
Hola Alejandro espero estés bien. Gracias espero te sirva Lo típico en un día de DE es revisar que los ETLs estén funcionando correctamente, reunirse con distintos equipos de trabajo para ver si hay nuevos requerimientos de datos, controlar bases de datos (consumo, estabilidad y seguridad en algunos casos). Trabajar mucho con SQL y no SQL para manipular data. Diseñar arquitecturas que puedan soportar los requerimientos de negocio. Eso sería como en resumen más o menos. A favor es un rol relativamente nuevo así que probablemente no tiene tanta competencia como en roles tipo Data Analyst y Data Scientist En contra se requiere un poco más de conocimiento a profundidad de lenguajes de programación, arquitecturas y tipos de datos así como manejo de nociones de Big data Cualquier cosa me cuentas. Saludos
Hola gracias por el video. Tengo un problema en este codigo 'from pytrends.request import TrendReq pytrends = TrendReq(hl='es') pytrends.build_payload('perro'], cat=0, timeframe='today 5-y', geo='EC', gprop='') data = pytrends.interest_over_time() ' Para la linea 'data = pytrends.interest_over_time()' me sale el error :'Error occurred: The request failed: Google returned a response with code 429'. Tienes alguna idea de como resolverlo. Gracias!!
Hola me podrías ayudar a instalar apache spark por favor?. Me ha salido todo bien primeramente. Pero no puedo ejecutarlo me dice que no se encuentra el ejecutable 'python3'. Yo primero intenté instalar apache spark con el entorno de anaconda. Cuando te sigo los pasos y pongo pyspark --mastar local[*] me sale eso del ejecutable no encontrado. Si hay un ejecutable python3 pero pedo 0kb . Me dice que te lo que especificar la ruta en la variable de entorno. Pero está como lo has hecho vos.
Hola Maxi espero estés bien Seguramente es que en tus variables de entorno no tienes el comando python puedes probar colocar en la terminal python --version Si no te sale nada es por eso. Si quieres me cuentas y lo revisamos
Hola David podras hacer algun video sobre AWS? en alguna herramienta que se use actualmente exceptuando redshift , alguno como S3, Glue..etc y cuando es mejor usar cada uno? gracias
Hola Mauricio las sort keys (optimizan el orden de los datos en el disco) se suelen usar sobre columnas cuando vas a utilizar la clausula WHERE muy seguido, mientras que las dist keys (determina cómo se dividen los datos entre los nodos) se aplican sobre columnas que las vas a conectar por medio de JOINS como los ids. Y respecto a DISTSTYLE te determina el estilo de distribución de los datos de la tabla entre los nodos hay varios tipos pero va a depender de la tabla y la estructura para poder decidir la mejor opción