no tiene mucho sentido probar esos modelos tan pequeños. Llama 3 es poderoso, pero para usar el modelo de 8 mil millones de parámetros no tiene sentido
Este modelo que se esta probando usa una cuantización de 4 bits, no es el modelo original de 8B, mas adelante probare con el mismo modelo pero diferente tamaño.
El contenido esta muy bueno, me gusta que es en español... Seria bueno saber de donde saco el dataset, como lo descargo, porque selecciono ese, que parámetros debo de tener en cuenta para seleccionar.. etc [En son de mejorar]
Hola John, gracias por tu comentario, aquí puedes descargar el dataset, entre muchos otros, son totalmente gratis. Saludos! www.kaggle.com/datasets/nelgiriyewithana/top-spotify-songs-2023
Hola @inteligenciafutura, después de vectorizar la información puedes hacer búsquedas y usar un modelo para complementar/mejorar la respuesta. Por ejemplo puedes crear tu propia api (es lo que vamos hacer en los siguientes videos) para responder preguntas, y esta api conectarla a una aplicacion como whatsapp...
Son muy interesantes este tipo de videos. Espero que sigas creando contenido. Todo gran viaje inicia con un primer paso...! Felicitaciones por tu canal.
Excelente enseñanza mi amigo, justo estoy en aprendizaje de huggingface y de langchain, veo que hay ejempoos de chatbot leyendo documentos como dataset, pero todo estan en python seria genia que esten hecho apra nestjs tambien