Hola, gracias por tus videos, son muy útiles. Sí, sería genial que puedas hacer un video (si existe esa opción) explicativo de como "enseñar" a GPT3 con información puntual (horarios, lugares, productos, etc) para que sirva de chatbot, para contestar comentarios de preguntas que suelen hacer los clientes.
Hola Jorge, si creo que trabajare en ese video mas adelante, porque si es super importante poder hacerlo sin caer en las alucinaciones de GPT. Saludos!
Podrías hacer un fine tunning para entrenar un chatbot específico, por ejemplo de atención al público, donde pueda atender todas las preguntas comunes de una empresa como por ejemplo horarios, direcciones, tipos de servicio, etc
Ya con la API de ChatGPT se puede, aunque el unico inconveniente es que no se puede hacer finetuning y tienes que estar metiendo el contexto y eso gasta muchos tokens y maximo solo utiliza 4096 tokens por llamada
Por lo que vi el formato de preguntas y respuestas es diferente a este ejercicio y hay varios caracteres especiales que se usan, ahora lo que vi es que para el caso de GPT-3.5 y 4 es diferente, seria bueno hacer un ejemplo, por ejemplo modificando una respuesta como "cual es el mejor equipo del mundo" y que responda siempre el equipo de tu preferencia
Muchas gracias por tu video, es altamente de provecho. Yo también estoy interesado en ver cómo desarrollas, en próximos videos, las búsquedas semánticas y los embedings.
ha sido increible lo que me acabas de enseñar con todo lo motivado que estoy con estos temas, necesitaba entender el concepto fine tuning i genial lo que explicas y como lo explicas, interesaria mucho lo que propusiste de hablar otro video de los embedings o busqueda semantica, creo que es algo de vectores para entender mejor una conversacion como datos o algo así y me interesa mucho. Muchas gracias
Excelente video muchas gracias siempre aprendo cosas muy interesantes en tu canal Y te agradecería mucho si nos pudieras enseñar mas sobre búsquedas semánticas con Gpt-3
Gracias por tu comentario! Si, parece que si hay algo de interés en la búsqueda semántica, lo acabo de agregar a mi lista para próximos videos. Saludos!
Respondiendo a tu pregunta al final del video : Si, sería muy interesante un video explicando métodos de respuestas más rigurosas como el embedding que sugerías y desconozco ¡gracias!
Genial! muy buen video, lo único que me estaba enloqueciendo era la pronunciación de la letra s en .csv, que la pronuncie como si fuera una c, algo pequeño e insignificante pero que me alcanzaba a incomodar, jaja, perdón por la tontería, por todo lo demás me encantó el video!, muchas gracias por realizarlo.
Buenísimo video Alex! Saludos desde Chile. Me gustaría saber si el fine tuning me ayudaría a ajustar el modelo para que reconozca e identifique ciertos tipos de documentos que suelo trabajar: contratos, certificados, pólizas, etc. me gustaría que al pasarle el texto, el modelo identifique de qué documento se trata, en base al set de datos que le daré. Qué opinas?
Yo. intente algo parecido hace tiempo pero mandando a llamar la api de openIA para chatgptt y desde VS y la terminal mandas la pregunta y de ahi mismo la respuesta. q fue. lo q no me agrado por q responde cosas extrañas aveces o se vuelve loquita, no hice el fine tuning pero lo intentare a ver si es posible, q debe serlo solo agregando los valores al código ,ya sera buscarle, muy buenos videos siempre bien explicados
Si a veces los modelos no "fine-tuneados" puedes tener respuestas un poco mas variadas aunque el prompt sea muy similar. Mi recomendación sería probar un poco mas con distintos promts y formatos y ya si no, entonces is pasar al fine-tuning.
Hola! Checa en mi canal, uno de los ultimos 5 videos que tengo es sobre embeddings. El nombre del video es "Aprende sobre Embeddings de OpenAI" Saludos
Que por qué no usar localmente el nuevo modelo de Meta ‘LlaMA’ en lugar de GPT3? Se supone que esta optimizado para tener un rendimiento similar con menos parámetros y funcionar en una sola gráfica.
Si tuvieras que crear un chatbot que responda preguntas relativas sobre una tienda online con miles de artículos, lo mejor sería embedding en vez de finetunning. ¿verdad? De esta forma se podría preguntar cosas tales como : - Dime los 5 productos más baratos donde tengas en stock más de 5 unidades. - Dime el precio de un lavabo negro etc.. Gracias
Hola! cómo me aconsejarías montar varios asesores que tomen información relevante de usuarios y con base a eso brinde soluciones o consejos... por ejemplo refinar la data con todos los datos de cada usuario ys e vaya creando para cada uno un modelo y sobre movimientos, transacciones y toda la data existente se retroalimente... alguna idea''???
Para hacer un chatbot que permita a los usuarios de mi web hacer preguntas sobre el mismo (con un dump de los artículos de ayuda, documentación, etc) es mejor usar fine tuning o embeddings? Supongo que fine tuning de todo el contenido de base de conocimiento sería carísimo.
Hola Julian, para eso se hace algo llamado búsqueda semántica, en el que vectorizas (con embedding) todos los textos al igual que las preguntas. Y de respuesta, no genera nuevo texto sino que busca el vector mas cercano a la pregunta. Estoy viendo para hacer un video sobre eso. Saludos!
Sería muy interesante tener algo así. Serviría por ejemplo si lo entrenamos con leyes, reglamentos o políticas, para que ayude con la interpretación o a responder cuando tengamos dudas con manuales o normas de una empresa.
Chevere tu explicacion , tengo una pregunta es posible fine tunear un modelo fine tuneado sin necesidad de que se cree como un nuevo modelo fine tuning ? Es decir es posible editarlo/actualizarlo en vez de crearlo ?
Hola, gracias por el video. Sabes cuál sería la mejor opción para que me responda preguntas sobre temas de derecho de un país determinado? Por ejemplo, ingresar los datos correspondientes a las leyes en materia de derecho de seguros de cierto país para que responda cualquier consulta sobre ese tema. Agradezco mucho la orientación.
¿Y que opinas de entrenar un modelo por ejemplo en HugginFace?, ¿Es posible generar un modelo más "personalizado" y acertado?, por ejemplo con el modelo Alpaca.
Me interesó lo de la búsqueda semántica :0! Y muchas gracias por el video :)!!! Aprendí mucho!! Estoy tomando notas de mi universidad en Obsidian y me interesa empezar a hacer resúmenes de las mismas en la parte superior de la nota, para cuando tenga que estudiar, pueda ver de un vistazo de qué se habló en la clase :)! Cada vez necesito más especificaciones en el prompt para que me genere resúmenes más específicos, y tal vez lo de la búsqueda semántica pueda ser la respuesta, pero no lo sé. ¿Qué me recomiendas? De nuevo, gracias por el video :D!!
Muy buena idea! Yo también uso obsidian, como todo son .md creo que si se puede. Voy a ver como podria meterlo en alguno de los siguientes videos! Si creo que con embeddings puedes solucionar una buena parte
Existe alguna manera para que el modelo de lenguaje únicamente responda aquellas preguntas que se relacionen con los prompts que montamos? Para dar mayor precisión a las respuestas del chatbot. Muchas gracias por el contenido !!
15:05 cuando tengo daily en la mañana tambien a veces suena la de los fierros viejos xD Gracias por el video, sabes que es lo que puedo usar para un detector de un objeto en especifico en un video?
Jaja siempre pasan en el peor momento, el folclor de vivir en la ciudad de mexico. Para poder detectar elementos en un video checa mi video llamado "Entrena YOLOv7 y corre detección de los objetos que quieras" Aqui está la liga: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-wMMu_ReIaHk.html
Hola Alex, muchas gracias por el video, muy claro sobre todo para tener una primera idea del tema. Quiero hacerte una consulta: cómo podría hacer para analizar un grupo de libros, y luego hacer consultas que solo abarquen dicho grupo y contenido, pero que se relacionen. Por ejemplo: subir los libros de Harry Potter y luego hacer consultas acerca de cómo fue cambiando un personaje. Debo hacer un entrenamiento? Ya existe alguna plataforma para ello? estoy realmente desorientado. Muchas gracias
En parte entiendo porque OpenAI tuvo que tomar ese camino, aunque como dices, todo termina siendo de los grandes. Afortunadamente estan saliendo muchas iniciativas open source como open assistant, gpt4all, etc. Haré unos videos sobre estas opciones.
Hola me acabo de escribir me fascinan tus videos llevo muchas horas viéndolos, una gran duda quiza algo tonta ¿hay alguna forma de no usar los tokens de openai y poder de alguna forma entrenar la maquina? me refiero a usar los tokens existentes y rentrenarlos pero sin usar en si nuevos pues con tanta data ya tiene que tener una idea aunque sea vaga de casi cualquier tema y solo es adaptar la información ya esxistente a tu conveniencia ¿se puede?
Hola Miguel, gracias por tu comentario. Si lo quieres conectar con GPT3 o GPT4, estas forzado a utilizar su tokenizador. Esto porque su sistema de embedding y el generador de texto esta entrelazados. No se si te refieres a entrenar un modelo de este tipo (LLM), pero estos modelos son muy grandes y toma bastante tiempo y dinero poder llevar a cabo un entrenamiento (Lo mas cercano seria el fine tuning que no es costoso o usar algun modelo mas pequeño que no sea LLM) Saludos!
Hola, con respecto a la privacidad de información, si utilizo esta metodología y quiero hacer fine tuning con información relevante para mi, esta información será privada o OpenAI puede tener acceso a ella de alguna forma Muchas gracias
habla de busqueda semantica, y creo que te falto mover la tempeture a 0, que creo que lo que hace es responder simpre exactamente lo mismo y evitar que en segundas respuesta entregue valores o aletoridad
Para que tipo de vacantes te estas postulando? En general te diria que cualquier proyecto que no sea de los tipicos. Por ejemplo el MNIST no te va a ayudar mucho porque muchos lo hacen, pero un detector de alguna otra cosa te podría servir. Eso y también encargate de tener actualizado y bien armado tu Github. Saludos!
@@AMPTech mil gracias! Si, he estado trabajando en mi GitHub desde hace un año y ya Luce muy Bien. Yo quiero aplicar a vacantes para Data science. Muy bueno tu canal, lo sigo desde El 2020.
Claro! Ve mi ultimo video, es sobre como usarlos y una explicación de que son. ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE--XVkdIdli0I.html Saludos!
Hola buenas noches, me gustaría saber si es posible entrenar la ia con finetunning para que responda sobre una base de datos y que siga usando gpt3-5 o 4, davinci etc. Mantener la IA de gpt
Donde esta el video donde se instala openai, me es imposible correrlo desde la consola, ya he añadido los path de windows, pero no hay manera, a ver si alguien , me puede ayudar. Thanks
Hola eso serviría para los modelos mas nuevos como gpt-3.5-turbo o gpt-4? La documentación me tiene confundido y no se donde leí que a estos últimos modelos aun NO tienen la opción de fine-tuning, alguien que lo confirme o desmienta?
Hay pocas diferencias cuando lo quieras hacer con gpt3.5-turbo Lo explico en este video, ojalá te funcione. ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-Dt14YOtWCpI.html
Depende por completo del API que tienes construida. Pero de manera general sería predefinir algunos llamados en codigo al rededor de GPT y que las variables que se tengan que enviar las genere GPT.
Si, son dos usos distintos. ChatGPT esta diseñado para tener conversaciones de prompt corto y completion media. Pero para muchos otros casos de uso no funcionaría tan bien. Pero igual que lo que mencioné al final, hay que probar los modelos que tienen por default (ahora incluido chatgpt) porque para muchos casos de uso puede resultar suficiente.