Тёмный

LLAMA-2 🦙: la MEJOR MANERA de hacer FINE-TUNE con TUS DATOS 🔥 

AlexFocus
Подписаться 3,4 тыс.
Просмотров 18 тыс.
50% 1

AprendE a ajustar el modelo base Llama 2 7B en un conjunto de datos personalizado (usando una única GPU T4). Usaremos la técnica QLoRa para capacitar a un LLM para responder preguntas de forma personalizada.
Si quieres aprender como funciona el mundo de la CIENCIA DE DATOS o simplemente quieres estar al tanto de las NOVEDADES relacionadas con la INTELIGENCIA ARTIFICIAL bienvenido a este canal 🤖
Twitter: / alexfocus8
Videos relacionados:
🎯 Por que NO deberías ser un CIENTÍFICO DE DATOS en 2023 • Por que NO deberías se...
🎯 Qué es REALMENTE la Ciencia de Datos en 2023? Contado por un Data Scientist👨🏻‍💻 • Qué es REALMENTE la Ci...
🎯 Cómo APRENDERÍA CIENCIA de DATOS en 2023 (si tuviera que EMPEZAR de cero📘) • Cómo APRENDERÍA CIENCI...
Código: github.com/alexFocus92/youtub...

Наука

Опубликовано:

 

27 июн 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 81   
@rocio6454
@rocio6454 6 месяцев назад
Muy buenos videos, muchas gracias por el contenido y los notebooks! Estaría genial poder ver mas videos tuyos explicando cosas de RAG con langchain y gradio o streamlit o algún otro fine tuning sobre modelos como Mistral!
@alexFocus8
@alexFocus8 6 месяцев назад
Muchas gracias por el comentario!! Se nota que sabes de llm, me lo apunto para ver preparar un video explicandolo en el futuro 😁
@pptmtz
@pptmtz Месяц назад
Buen video
@MrMadmaggot
@MrMadmaggot 7 месяцев назад
Hombre debe haber algùn tutorial que explique como ahcer el fine tuning, y explique bien los paràmetros, los hiperparàmetros y otros son sencillos
@Pekarnick
@Pekarnick Месяц назад
5 meses después alguien te responde jajjaa, no creo que encuentres algo así porque el video se haría muy largo y aburrido, lo que te recomiendo como docente es agarrar el código, que la verdad no es muy extenso, y pedirle a chatgpt, claude, llama3 o el que uses y te vaya explicando paso a paso y que profundice mas donde vos quieras. Es lo que yo hago en esos casos. Espero que te ayude. Saludos!!
@renzovicentecastro7024
@renzovicentecastro7024 2 месяца назад
osea si yo quisiera cargar un data set propio donde lo cargo en vez de guanaco o de mini guanaco?
@matzcontreras
@matzcontreras 4 месяца назад
como lo hago usando ollama en local usando de dataset unos jsonl?
@nerakrojas244
@nerakrojas244 7 месяцев назад
Esta super tu video, mi consulta como cambio el doc train por mi propio dato, sinseramente recien estoy iniciando y bueno queria probar con otros datos y no veo donde quizas esta simple la respuesta me pueden ayudar, de antemano muchas Gracis!.
@alexFocus8
@alexFocus8 6 месяцев назад
Muchas gracias, voy a preparar un video de esto, mientras puedes buscar como cargar dataset de textos en formato json, espero que te sea útil!
@digitalartist8987
@digitalartist8987 5 месяцев назад
Excelente video, me parece muy interesante, tengo un proyecto experimental un poco loco en el que me gustaria probar mediante finetuning a un llm, como si clonaras tu forma de ser y forma de hablar a un llm, para esto mi idea es crear un dataset personalizado, esto realmente es lo mas complejo, ya que experimente en el pasado con gpt 2 pero me di cuenta que si la estructura del dataset no era buena.. el resultado era un kaos.. por eso, como en otros comentarios creo que seria util tu opinión sobre como hacer el dataset bien estructurado.. en mi caso creo que estos modelos se entrenan con pregunta/respuesta asi que estoy capturando mi personalidad con mucho texto pregunta/respuesta y tengo curiosidad de cuanto de mi puede simular" una vez entrenado Un saludo
@alexFocus8
@alexFocus8 5 месяцев назад
La verdad que me parece una idea brutal y si consigues que funcione bien incluso montar una empresa, diria que lo mejor es usar conversaciones de WhatsApp o simitar y para hacer el dataset en modo pregunta/reapuesta tomar como preguntas las partes donde habla el otro (juntando los mensajes seguidos que haya mandado) y como respuesta lo que le contestes (también uniendo los mensajes que sean seguidos), GPT2 no iba muy bien asique con llama deberias notar una mejora importante 👍 mucho animo y si lo consigues avisame 😁
@rafaelramosr
@rafaelramosr 8 месяцев назад
Estaría bueno un ejemplo similar con LLaVA que es un proyecto muy interesante y con poca info.
@alexFocus8
@alexFocus8 8 месяцев назад
Gracias por la idea, le echaré un ojo
@benjaminalonso4630
@benjaminalonso4630 8 месяцев назад
Está muy bueno el vídeo, la forma de explicarlo y facilidad de aplicarlo sorprenden. Podrías dar tips para crear dataset de calidad? tenía pensado ocupar la forma que enseñas para crear un modelo personalizado de asistencia, un asistente para que asista a personas ante consultas algo díficiles
@alexFocus8
@alexFocus8 8 месяцев назад
Muchas gracias Benjamin 😁 crear un dataset de calidad casi depende mas de lo que tengan en la empresa o lo que quieras hacer, pero pensaré un video en el que contar cómo limpiar y adaptar un dataset para entrenar modelos. Gracias 😁
@ambrosionguema9200
@ambrosionguema9200 7 месяцев назад
@@alexFocus8 si por favor, este punto es importante, ya que nunca vemos los datasets con los que se entrenan , como hacen la particion del train y set... etc etc etc
@juanrozo95
@juanrozo95 5 месяцев назад
Por favor tenlo en tus ideas, también llevo tiempo tratando de encontrar algún video donde enseñen como crear un dataset personalizado, siempre toman alguno de kaggle o hugging face, pero nadie explica cómo hacerlo, como subirlo etc, muchas gracias master@@alexFocus8
@DevDes-AE
@DevDes-AE 3 месяца назад
@@alexFocus8 Genial el video y muchas gracias, pero no te olvides de hacer el "video en el que contar cómo limpiar y adaptar un dataset para entrenar modelos", por favor. xD ☝
@joserfjunior8940
@joserfjunior8940 5 месяцев назад
Alex parabens pelo video, uma duvida, e se eu crier criar meu proprio dataset ? tipo passar para ele Uma base de dados toda, como faria ?
@alexFocus8
@alexFocus8 5 месяцев назад
Para crear un dataset te recomiendo coger uno ya existente y copiar la forma en la que hacen las preguntas y respuestas
@joserfjunior8940
@joserfjunior8940 4 месяца назад
@@alexFocus8 Otimo , gracias !
@eiron2k
@eiron2k 7 месяцев назад
Lo primero, muchísimas gracias por el video, lo explicas genial. Lo segundo, es posible descargar el modelo una vez entrenado (si lo haces en collab) o paquetizarlo haciéndolo en on premise para luego utilizarlo en text-generation-ui? Muchísimas gracias!
@alexFocus8
@alexFocus8 7 месяцев назад
Muchas gracias por el comentario! Claro, se puede descargar de varias formas, yo me lo he bajado tanto con pickle como con MLflow (logeando el modelo) y para paquetizar una aplicación puedes usar docker 😄
@Mpniv14
@Mpniv14 7 месяцев назад
@@alexFocus8 muchas gracias por este video, quisiera saber como puedo descargar el modelo entrenado para usarlo en llama.cpp para esto requiero que esté en formato .gguf
@antoniomontano6128
@antoniomontano6128 7 месяцев назад
@ Gracias por todo. Me uno a la pregunta, creo que es lo único importante que no se ha comentado
@davidpujo8654
@davidpujo8654 5 месяцев назад
@@alexFocus8 podrias explicar mejor como descargarlo? no consigo que me funcione
@Cristian-dg6qg
@Cristian-dg6qg 3 месяца назад
Muy buen tutorial! Una pregunta... ¿Cómo decidimos qué modelo de HF usar? ¿Por qué NousResearch/Llama-2-7b-chat-hf y no otro Llama-2-7b-chat de los miles que hay en HF? Gracias!
@alexFocus8
@alexFocus8 2 месяца назад
La elección del modelo NousResearch/Llama-2-7b-chat-hf en este caso es debido a su rendimiento superior para la tarea del video y que sea en español, su optimización para este idioma y la disponibilidad de soporte de la comunidad, pero para elegir modelo te diría que mires los benchmarcks de huggingface y las descargas de los modelos.
@emmanuelgarcia5451
@emmanuelgarcia5451 7 месяцев назад
es un video bien explicado y sobre todo interesante, el problema que presento es que yo quiero limitarlo a que conteste a solo preguntas de algun archivo pero este suele responder cualquier pregunta y tambien llega a alucinar con las respuestas e inventar informacion no existente en el archivo cargado, que puedo hacer?
@alexFocus8
@alexFocus8 6 месяцев назад
Gracias por el comentario, podrías usar tecnicas de RAG con Langchain o llama index, ahora justo estoy preparando un video de eso.
@guus7893
@guus7893 Месяц назад
@@alexFocus8 ¿Puedes mencioar en que casos es recomendable aplicar el Fine-Tunning y en que casos RAG (busqueda en documentos adjuntos)? Citando algunos ejemplos para que se entienda, porque no logro darme cuenta de la diferencia, tal vez lo mas significativo seria el consumo de tokens, ya que usando RAG tiene que buscar en el contenido vectorial y responder, mientras que tal vez con finetunning se ahorra todo eso porque ya estaria incorporado en el modelo. Pero seria mejor explicar cuando conviene usar Finetunning o RAG de acuerdo al caso de uso con ejemplos.
@andresmesa5020
@andresmesa5020 4 месяца назад
Hola gran video un favor me sale que no tengo nvidia y que pailas como es esa cuestion
@alexFocus8
@alexFocus8 4 месяца назад
Si estás desde google colab tienes que dar a entorno de ejecución y seleccionar T4 GPU, y si es desde tu PC debes tener una tarjeta NVIDIA y CUDA instalado
@francogionardo
@francogionardo 3 месяца назад
Me pasó lo mismo en un proyecto de con redes neuronales y segementación de imágenes, me resultaba confuso en su momento, pero esos modelos usan CUDA, y CUDA usa una tarjeta gráfica nvidia. La peor parte es que no todos lo modelos estan construidos para todas la versiones de CUDA, igualmente con CUDA, para instalar cierta version de CUDA, necesitas tarjetas gráficas NViDIA específicas (RX, GTX, RTX). Es recomendable que compres una tarjeta con una antiguedad no mayor a 4 años, para que puedas correr tus modelos en local.
@xalchemistxx1
@xalchemistxx1 5 месяцев назад
Saludos colega, una vez hecho el fine tuning el archivo pesa 9gb aprox y al generar el fine tuning genera un archivo de 128mb como se haria para ejecutarlo en local si esto se hizo desde el colab, descarga solo los archivos generados o el archivo base
@alexFocus8
@alexFocus8 5 месяцев назад
Necesitaras tanto el archivo base como los generados y ten en cuenta que en local tambien vas a necesitar una GPU con minimo 8 gb de Ram, por ejemplo un Nvidia 3070 RTX
@xalchemistxx1
@xalchemistxx1 5 месяцев назад
@@alexFocus8 muchisimas gracias colega
@XGiral
@XGiral 7 месяцев назад
Podrias hacer un video con LLamaIndex?
@alexFocus8
@alexFocus8 7 месяцев назад
Voy a tratar de sacar tiempo y lo preparo 👍
@IvanDiaz-vz3zm
@IvanDiaz-vz3zm 3 месяца назад
Haz un video que nos permita hacer fine-tune a partir de un modelo de formato GGUF
@RedditGuy-22
@RedditGuy-22 3 месяца назад
No se puede
@juliandejesuscamposbrandt8357
@juliandejesuscamposbrandt8357 2 месяца назад
Por que no se puede hacer un fine tunniga un modelo GGUF?
@IvanDiaz-vz3zm
@IvanDiaz-vz3zm 2 месяца назад
@@RedditGuy-22 Por que no se podría?
@danielperez9362
@danielperez9362 Месяц назад
@@IvanDiaz-vz3zm como son preguntones cuando les dicen no se puede es que no se puede
@hubhub44
@hubhub44 6 месяцев назад
Podrías enseñar como hacer nuestro propio dataset en vez de usar el de guanaco? he buscado bastante y nadie hace mención ni eseña a como crearlo facilmente
@alexFocus8
@alexFocus8 6 месяцев назад
Al final esto depende mucho que que textos quieras usar, voy a buscar algún dataset a ver si puedo usarlo a modelo de ejemplo.
@hubhub44
@hubhub44 6 месяцев назад
@@alexFocus8 En mi caso deseo entrenar al modelo con miles de comentarios y las respuestas a estos para que su forma de hablar se corresponda a la de un determinado personaje, usuario de internet, o comentarios promedio de un foro en específico.
@CreadorDefinitivo
@CreadorDefinitivo 5 месяцев назад
El archivo resultante es un LoRA?
@alexFocus8
@alexFocus8 4 месяца назад
No se si el archivo se puede considerar LoRA (diría que hace más referencia a la técnica) pero si, concretamente se usa QLoRA (Cuantificación + LoRA), estoy pensando en hacer un video explicando bien esto ya que es un tema complejo e interesante.
@jsalgadop
@jsalgadop 3 месяца назад
Para el modelo, ¿cómo puedo generar un LLM con mis documentos en formato PDF?
@alexFocus8
@alexFocus8 2 месяца назад
Tienes que preparar el dataset siguiendo el mismo formato y guardar el modelo al final, si son documentos extensos casi te recomendaría más usar RAG.
@arepaforever3981
@arepaforever3981 3 месяца назад
Muy interesante! pero cuando explicas como cargar el dataset (que se supone que eso dice el título, utilizar "tus datos") no se explica y no he entendido cómo hacerlo. No entiendo para qué utilizar los dataset por defecto. Me parece que quién mira este tipo de videos lo que quiere es utilizar su propio dataset, que no hay forma de encontrar un "paso a paso" de cómo hacerlo en español (y menos en local, aunque lento es más privado y el límite de datos lo marca mi disco duro). Adoro ChatGPT 4, pero los GPT de OpenAI son unos inútiles, que no pasan casi nunca la "prueba de la aguja en el pajar" cuando tienen un volumen elevado de datos. Ojalá alguien haga un video titulado "Cómo entrenar una IA con tus propios datos, para super novatos explicado pasito a pasito". Tengo mucha información en vídeo (avi,mp4), texto (txt, pdf, doc) y audio (mp3, wav) sobre un proceso judicial muy complejo, y sería fabuloso poder crear una propia IA con estos datos y poder preguntarle cosas, en vez de perder horas y horas buscando la información entre miles de documentos de todo tipo.
@quetzaldejoniaGK
@quetzaldejoniaGK 3 месяца назад
Solo cambia ese que viene por defecto, lo mandas llamar desde Hugging Face, o lo puedes mandar llamar desde tu ambiente local
@alexFocus8
@alexFocus8 2 месяца назад
Gracias por el comentario! tal cual comenta @quetzaldejoniaGK tienes que cargar tus documentos en el mismo formato que el del ejemplo y lo puedes subir y cargar desde huggingface.
@octavito924
@octavito924 8 месяцев назад
hola muy bueno el video. queria saber si hay docu oficial sobre la tarea de fine-tune, estoy buscando crear un bot que pueda responder preguntas sobre documentacion especifica, por ejemplo agregar informacion sobre una organizacion (la historia del grupo scout al que pertenezco), pero al ser generativa, genera desde el total de informacion del modelo entrenado, y no sobre la documentacion propia. Entiendo que el etiquetado del texto de entrenamiento es muy importante, pero necesito ampliar la info y no encuentro la documentacion oficial. Muy bueno el video y gracias.
@alexFocus8
@alexFocus8 8 месяцев назад
Muchas gracias por el comentario! Para el caso que comentas diría que el fine tunning no es la mejor opción, puedes probar a usar bases de datos vectoriales como ChromaDB. Usando langchain se puede hacer relativamente facil.
@user-kx8li1dk6d
@user-kx8li1dk6d 7 месяцев назад
Cómo vas con tu proyecto? tengo que hacer algo similar y necesito ayudaaa
@user-in4st7zl4t
@user-in4st7zl4t 5 месяцев назад
Hola! Hay algo que no me queda del todo claro. cuando haces inference, al cargar el modelo defines model=model, ahi lo que haces, segun veo, es cargar el modelo base y no el modelo con fine tuning, o me equivoco?
@davidpujo8654
@davidpujo8654 5 месяцев назад
eos he pensado yo, lo que entiendo que tendrás que hacer es cargar ahí "new_model"
@alexFocus8
@alexFocus8 4 месяца назад
No había visto el comentario, pero bueno mejor tarde que nunca jajaja. Lo que estamos haciendo con este Notebook al hacer el training es "modificar" el modelo con la técnica de QLoRA y volviendolo a guardarlo en la propia variable "model". Concretamente lo hacemos aquí: # Set supervised fine-tuning parameters trainer = SFTTrainer( model=model, train_dataset=dataset, peft_config=peft_config, dataset_text_field="text", max_seq_length=max_seq_length, tokenizer=tokenizer, args=training_arguments, packing=packing, ) # Train model trainer.train() # Save trained model trainer.model.save_pretrained(new_model)
@user-in4st7zl4t
@user-in4st7zl4t 4 месяца назад
@@alexFocus8 nop, ahi tienes un error. lo que estas haciendo es con el metodo save_pretrained guardar el modelo cargado en la ruta que especificas en "new_model", pero cuando haces inference, se lo estas haciendo al modelo base. al hacer save_pretrained no estas sobreescribiendo la variable "model"
@alexFocus8
@alexFocus8 4 месяца назад
@@user-in4st7zl4t gracias por la aclaración! a ver si saco tiempo para investigar esto bien y hago un video explicando esto y de paso todos los hiperparametros :D
@PyAIAcademy
@PyAIAcademy 4 месяца назад
Hola, estoy teniendo un problema al finalizar con la ejecución del código se me generan estos tres archivos: adapter_model.bin adapter_config.json README.md pero ahora como vuelvo a descargar mi nuevo modelo afinado en base a esos tres archivos, ayuda please o si puedes un tutorial que vendría de perlas
@alexFocus8
@alexFocus8 4 месяца назад
Tienes que cargarlo junto con el modelo que has usado para el entrenamiento, estoy preparando un video en el que explicar bien que es QLoRA y una de las cosas que hablare es de eso 😄
@PyAIAcademy
@PyAIAcademy 4 месяца назад
@@alexFocus8 gracias estaré atento a que subas el video, 😄
@quetzaldejoniaGK
@quetzaldejoniaGK 2 месяца назад
Alguien sabe como se puede subir un modelo a Hugging face? La verdad no le hallo u.u
@ANIMAKER-ou6qn
@ANIMAKER-ou6qn 3 месяца назад
funciona con mistral?
@alexFocus8
@alexFocus8 2 месяца назад
Si, pero tendrás que adaptar algunas cosas, te recomiendo buscar algun ejemplo que lo cuente con mistral directamente
@DigitalDaemonOF
@DigitalDaemonOF 8 месяцев назад
tengo un error que me dice que he usado toda la ram del coolab
@alexFocus8
@alexFocus8 6 месяцев назад
Prueba a reiniciarlo, hay veces que da problemas.
@matzcontreras
@matzcontreras 4 месяца назад
no se escucha nada, cambia tu micro por uno de calidad.
@CryptoFoxx
@CryptoFoxx Месяц назад
O tu cambia de bocinas/audífonos 😂
@matzcontreras
@matzcontreras Месяц назад
@@CryptoFoxx tengo bang & olufsen, además de Bosé, problemas de audio no tengo gracias a Dios.
@SonNata
@SonNata Месяц назад
​@@CryptoFoxx×2, yo lo escucho genial
@javierchiquitoavellan1666
@javierchiquitoavellan1666 Месяц назад
Quizás son tus oídos, el videos se escucha bien.
@CryptoFoxx
@CryptoFoxx 9 часов назад
@@matzcontreras claro😂
@centrokairos4304
@centrokairos4304 Месяц назад
parece interesante pero no te puedo seguir. vas demasiado rapido y ansioso, una pena
@OscarBenitez-sp7rk
@OscarBenitez-sp7rk 5 месяцев назад
Lo q seria bueno es q ya venga con la opcion quieres q me conecte a internet i aprenda
@alexFocus8
@alexFocus8 5 месяцев назад
Hoy por hoy no existe esa opción pero seguro que llegará con el tiempo 👍
@OscarBenitez-sp7rk
@OscarBenitez-sp7rk 5 месяцев назад
Sera q en android podria instalar este ia
@alexFocus8
@alexFocus8 5 месяцев назад
Para tirar desde android tiene mas sentido usar una API, bien sea de open.ai, Huggingface o alguno por el estilo.
Далее
Llama 3 en Español - Meta lanza su mejor LLM
13:48
Просмотров 6 тыс.
Он тоже из IKEA 🙀
00:10
Просмотров 287 тыс.
🚀 Cómo usar ChatGPT ➤ Curso Básico Completo 2024
52:51
The EASIEST way to finetune LLAMA-v2 on local machine!
17:26
iPhone 16 - КРУТЕЙШИЕ ИННОВАЦИИ
4:50
Развод с OZON - ноутбук за 2875₽
17:48