actualización: la ultima versión deprecó main para iniciar, ahora usa llama-cli.exe estoy probando el modelo meta-llama-3.1-8b-instruct me dice cualquier disparate, inventa palabras y se queda loopeado en las respuestas, a alguien le pasa lo mismo?
Lástima que no se pueda usar las 2 GPUs para entrenar de manera más eficiente. No sé si esto se deba a que para Piper y el notebook se están usando unas versiones antiguas de PyTorch y otros módulos como Lightning. Para datasets de 2 o más horas será bastante lento. Y cuidado con Numpy 2.0, que no funcionará el cuaderno si se instala esa versión. Yo personalmente uso el modo save & run, no el modo interactivo, ya que así no tengo que interactuar con la página cada 30 minutos. Es algo más manual en cuanto a algunas cosas, pero ya se hizo costumbre.
Usa el espacio de Huggingface, posiblemente se actualizó el proyecto y por ende se rompió todo: huggingface.co/spaces/HirCoir/Kaggle-Piper-onnx-export-and-inference
@@hircoir Gracias hermano, funciono! Te jodo con una última cosa jaja, a mi me copa esto de la ia, en especial esto del tts. Recomendas algún curso, repo para leer, o algo para aprender más sobre el tema?
@@ernestoflores3873 Te recomiendo leer acerca de Tacotron, CoquiTTS, etc... Como tal no puedo recomendar algo en específico pero lo anterior mencionado son tecnologías para el entrenamiento de modelos de voz
Alguien me puede apoyar en el año pasado empeze con la suscripción desarrollador, todo iba viendo asta cuando por error borré la licencia y la cuenta de Microsofto .. Y empeze de nuevo con los pasos de vídeo pero ya no me dejo seguir se pasaba para último paso Y con la mismo correo electrónico
@@hircoir E: Could not open lock file /var/lib/dpkg/lock-frontend - open (13: Permission denied) E: Unable to acquire the dpkg frontend lock (/var/lib/dpkg/lock-frontend), are you root? ahora me sale esto al poner el comando
@@EsetNodplus Puedes decirme cuál es el error? Recuerda que el máximo de segundos por cada audio debe de ser menor a 10 segundos, de lo contrario al momento de iniciar el entrenamiento este dará un error diciendo que se quedó sin memoria la infancia
@@hircoir DEPRECATION: pytorch-lightning 1.7.7 has a non-standard dependency specifier torch>=1.9.*. pip 24.0 will enforce this behaviour change. A possible replacement is to upgrade to a newer version of pytorch-lightning or contact the author to suggest that they release a version with a conforming dependency specifiers. Discussion can be found at
Hola, @HirCoir excelente video y explicación, estoy modificando el archivo Example.ts y no toma las modificaciones, reinicie el server y nada, debo hacer algo mas? gracias
Gracias por el vídeo No me conecta de forma remota He abierto los puertos del router y abilitado la opción de conexión remota pero da error Me podrian ayudar? Muchas gracias
@@jesusmontoyademadariaga Hola!, recuerda solicitar abrir los puertos directamente con tu proveedor de servicios ya que por defecto tiene un firewall.... También puedes probar Cloudflared Zero ☺️
Hola excelente tu video me gustaria preguntarte se podria utilizar con llama 3, si los recursos no son un problema? y se podria integrar RAG? para que pueda responder en base a informacion precargada? por ultimo que las preguntas no necesiten el signo de esclamacion. Gracisas de antemano Crack!!!
Hola!, si es posible... Solo requiere usar la ultima versión de llama.cpp que admite formatos .gguf y respecto a lo del rag no tengo conocimiento sobre ello!
@@TrendingNewsToday24-7 He revisado y no esta funcionando... Hay páginas en internet para mejorar la calidad de la imagen, algunas son muy buenas aunque dejan una pequeña marca de agua (Que puedes remover con Retouch desde tu celular): letsenhance.io/boost
buena tarde, no puedo ingresar a mi cuenta ya que me envia un codigo al movil y ese numero de movil ya no lo uso. que debo hacer para ingresar a mi cuenta? ya restableci la contraseña y al ingresar nuevamente me envia verificacion al numero movil que ya no uso. Agradezco me puedan ayudar
@@hircoir não estou conseguindo usar, na hora que criar a instância na hora de escolher vcpu e ram ele cobra, teria como ajudar ? Tem um número de contato ? Pode me mostrar pelo Meet que eu pago
hola, al usar el auto py to exe. me arroja este error = me cnvierte a .exe pero lo ejecuto y arroja un error en microsegundos y se cierra la app convertida... 42104 WARNING: Library not found: could not resolve 'VERSION.dll', dependency of 'C:\\Users\\leand\\AppData\\Roaming\\python312.dll'. 42113 WARNING: Library not found: could not resolve 'bcrypt.dll', dependency of 'C:\\Users\\leand\\AppData\\Roaming\\python312.dll'. 42136 WARNING: Library not found: could not resolve 'IPHLPAPI.DLL', dependency of 'C:\\Users\\leand\\AppData\\Roaming\\DLLs\\_socket.pyd'. 42162 WARNING: Library not found: could not resolve 'bcrypt.dll', dependency of 'C:\\Users\\leand\\AppData\\Roaming\\DLLs\\libcrypto-3.dll'. 42174 INFO: Warnings written to C:\Users\leand\AppData\Local\Temp\tmp70r_peit\build\AMI_PFAT_Extract\warn-AMI_PFAT_Extract.txt
Cuál es el log? O algún código de error? Prueba usar un cable diferente y verifica que la ROM esté en el formato zip tal cual como el que usas a la hora de flashear
hola acabo de realizar los pasos y todo marcha bien, creo que usamos el mismo servicio de Oracle pues en la pagina de github describes el mismo modelo de procesador y RAM que usé yo, agradezco mucho tu guía, sin embargo tengo algunas dudas ¿como puedo modificar los parámetros de example.ts en mi compu y luego subir ya todo? es que cloné el repositorio y luego desde el server (através de putty) tuve que utilizar NANO para editar el archivo en el maximo de procesos, cosa que sin problema por ser solo un número, pero si requiero hacer mas cambios no me veo utilizando NANO otra vez, gracias por tu respuesta y saludos
@@hircoir Muchas gracias, fijate que quise hacer la implementación en AWS y no logré descargar vicuna no con docker ni manualmente como lo indicas en tu repo de github (el cual agradezco enormemente), es mas intenté descargando Vicuna a mi pc para después subirlo por SFTP y no pude, total intentaré con otro LLM, agradezco mucho tu respuesta, saludos.
@@viktorhugoheckenschutze4481 Hola de nuevo!, tengo en mi canal un vídeo donde hablo sobre llama.cpp y explico algunas cosas básicas ya que el formato del modelo ha cambiado... Puedes aplicar una pequeña actualización dentro del código de ejecución definiendo un nuevo modelo como Gemma 2b o Phi3 en su formato gguf (Son modelos más actuales y más ligeros).
Hola! si no se renovò mi suscripción de desarrollador... que puedo hacer? Probé con otras cuentas, pero dice que actualmente no reúno los requisitos. Muy ùtil tu video. Ya tenia este inconveniente antes de verlo.