Тёмный

Mejora las personas 3D en tus Renders con AI en ComfyUI 

Adán Martín
Подписаться 93 тыс.
Просмотров 8 тыс.
50% 1

📌TIENDA 3DC → 3dcollective.es/
📷 Instagram → / 3dcollective
🎓Nuestra Escuela → school-ing.es/
🌍Comunidad → goo.gl/aUtGYE
🎨 En este video continuamos nuestra exploración de herramientas de inteligencia artificial aplicadas a la visualización arquitectónica. En esta ocasión, aprenderemos a sustituir personas en 3D que no tienen un acabado muy realista por versiones generadas mediante IA, manteniendo la consistencia con el modelo original y control creativo.
👨‍💻 ¿Qué cubriremos en este video?
Sustitución de Personas con IA: Aprende cómo reemplazar modelos 3D por versiones fotorrealistas generadas con IA, manteniendo el control sobre el resultado.
Configuración de Comfy UI: Detallamos cómo configurar ComfyUI para realizar estas sustituciones de manera eficiente.
Inpainting y Segmentación: Técnicas avanzadas para aplicar cambios únicamente en áreas específicas de tus renders, utilizando máscaras y segmentaciones.
Solución de Problemas y Optimización: Consejos para mejorar la calidad de los resultados y manejar limitaciones técnicas.
Ejemplos en Vivo: Transformamos modelos 3D en personajes fotorrealistas en tiempo real, comparando resultados con Automatic1111.
📢 Importante:
Si es tu primera vez trabajando con inteligencia artificial en visualización arquitectónica, te recomendamos ver nuestro video anterior: Introducción a Stable Diffusion y Automatic1111, donde explicamos la instalación y configuración necesarias.
Intro A1111: • Mejora tus renders con...
Personas en A1111: • Mejora las personas de...
Intro ComfyUI: • Introducción a ComfyUI...
🔔 Suscríbete y Activa las Notificaciones:
No te pierdas futuros tutoriales y actualizaciones. ¡Suscríbete y activa la campana de notificaciones para estar al día con todo lo relacionado con la inteligencia artificial y la visualización arquitectónica!
Espero que disfrutes del video y encuentres útil la información. ¡Déjanos tus comentarios y comparte este video si te ha gustado!

Опубликовано:

 

23 сен 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 56   
@OnofreOne
@OnofreOne 2 месяца назад
ya me he podido poner al dia con todos los videos de IA y poniendo en practica este ultimo para mi flujo de trabajo real. Muchas gracias por lo que haces, espero poder seguir aprendiendo con tus videos.
@adanmq
@adanmq Месяц назад
Espero poder retomar los videos después del verano. con mas AI ;)
@calibrateddreamscape1613
@calibrateddreamscape1613 Месяц назад
Muchas gracias Adán por tu brillante labor didáctica y divulgativa. Es de gran ayuda para navegar en esta marea de herramientas que surgen más deprisa de lo que se pueden asimilar. Sería estupendo ver en el canal un video que explore esta técnica de control con máscaras en ComfyUI en un caso de estudio más relacionado con el diseño urbano. En este campo en particular, últimamente se está usando la IA para detallar edificios que en la imagen de base son poco más que una extrusión de geometría muy básica. Un problema que encontramos los profesionales utilizando plataformas como LookX, es la falta de control sobre edificios determinados, y no sobre la imagen total. En mi opinión, sería muy interesante explorar las posibilidades que este método ofrece para controlar una escena urbana con muchos edificios. Sería muy clarificador poner a prueba el nivel de control que se puede alcanzar a través de ComfyUI y ControlNET usando máscaras, para modificar o detallar edificios concretos dentro de la visualización de una calle, o una perspectiva aérea. Es sólo una propuesta y me encantaría saber cómo lo afrontarías tu. Tengo la certeza de que muchos profesionales están lidiando actualmente con este desafío. Un saludo!
@israelantunez7612
@israelantunez7612 3 месяца назад
Como siempre, tu conocimiento y forma de difusión es top level. Gracias.
@samuelbonilla1110
@samuelbonilla1110 3 месяца назад
Me encanta que uses ambos!!
@adanmq
@adanmq 3 месяца назад
Así voy viendo diferencias xD. Cual te gusta más?
@samuelbonilla1110
@samuelbonilla1110 3 месяца назад
@@adanmq ComfyUI
@samuelbonilla1110
@samuelbonilla1110 3 месяца назад
@@adanmq ComfyUI
@samuelbonilla1110
@samuelbonilla1110 Месяц назад
​@@adanmqComfyUi
@arqbolognesi
@arqbolognesi 3 месяца назад
muy util! estaba esperando este video desde hace varias semanas
@sienes7475
@sienes7475 3 месяца назад
Gran video maestro !
@dvesco
@dvesco 3 месяца назад
xuapeti, gracias nuevamente por tus tutos. Adán, podrías hacer uno en una escena con varias personas, en diferentes planos, Dof etc, Llevo varias semanas experimentando con ello y es algo complicado de conseguir. Creo que lo mejor sería usar 2 máscaras del render para hombres y otra para mujeres, aunque sin mascaras la segmentación automática sería interesante de ver, + CN + Yolo Face (sin entrar en detalle de cómo se arma) y de alguna manera tener un resultado relativamente consistente gracias.
@caronte1974
@caronte1974 3 месяца назад
genial.... gracias por ese gran trabajo
@fuhrernmss
@fuhrernmss 2 месяца назад
despues de ver esata increible herramienta, tyflow saca su version de ia, tyDiffusion.... esto es un no parar 😵
@adanmq
@adanmq 2 месяца назад
en realidad tydiffusion es esto mismo, no es nuevo, es solo otra UI mas para SD. Parece que hay muchas, pero solo hay una herramienta. Y no creas que puede hacer mucho xD. A la gente le gusta exagerar lo que puede hacer la AI
@Abelbus
@Abelbus 3 месяца назад
Muchas gracias por la clase tan detallada y bien explicada "papá" 😄...podrías subir el workflow a algún sitio ? Gracias de antemano !
@jeoc27
@jeoc27 Месяц назад
Hola Adán, excelente video. Harás alguno de comfyui para renders de animaciones? Gracias
@1biohazer
@1biohazer 2 месяца назад
necesitamos mas videos de comfyUI!!
@adanmq
@adanmq 2 месяца назад
Hola. Tengo pensado hacer más, justo ahora tenemos el cierre del curso 2024 en la escuela y tengo menos tiempo, pero pronto retomamos los videos.
@ingeniosoleonalmeida5877
@ingeniosoleonalmeida5877 3 месяца назад
Está muy bien el video ,pero no vaya tan rápido explicando las cosas para la gente que empieza nuevo ComfyUI
@adanmq
@adanmq 3 месяца назад
Hay un vídeo de introducción en el canal
@Marcos82873
@Marcos82873 3 месяца назад
Gracias Adán. Consegui replicar os resultados, mas acabei decidindo que vou me dedicar a interface A111, pois achei mais intuitiva e dinâmica. Esse monte de nodes é coisa de maluco kk. Abração
@Marcos82873
@Marcos82873 3 месяца назад
é legal ter uns arquivos JSON fáceis a mão pra uma coisa ou outra, mas trabalhar na rotina com ConfyUI (e não se embananar) tem que ser muito expert.
@ToNeArchViz
@ToNeArchViz 3 месяца назад
Buenos días Adán, llevo unos dias con ComfyUI lo estoy utilizando sobretodo para mejorar personas y finalmente he conseguido obtener muy buenos resultados. Con menos nudos que en tu video, me gustaría compartir contigo el archivo .json para saber que opinas y si he hecho algo incorrecto o una captura de pantalla. Un saludo y muchas gracias por todo lo que hace!!!
@adanmq
@adanmq 3 месяца назад
Claro, mándamelo por mail si quieres o por Instagram. Info@3dcollective.es
@adanmq
@adanmq 3 месяца назад
Hola. Ya he podido ver tu Json. Estas usando una estrategia muy diferente a la que muestro en este video. Primero estas optando por USD Upscaler que es completamente diferente a Tiled Diffusion. El upscaler hace la generación en pequeño y luego la escala mientras que Tiled Diffusion hace la diffusion al tamaño deseado. No es que unos ea mejor que otro pero son diferentes y es importante tenerlo presente. El nodo de control net en negativo te sobra, puedes usar directamente el advanced control net si quieres condicionar también el negativo y recuerda que mas o menos nodos no es lo importante, por ejemplo el nodo de USD Upscaler es un nodo enorme que abarca muchos procesos y es lento. Si quieres medir la optimización compara resultados en términos de calidad con tiempo de uso de la GPU. Puedes incluso combinar ambas estrategias, Tiled diffusion para ahorrar ram y SDUpscaler para el escalado por tiles. O puedes suar SEGS para la fragmentación, con comfyUI hay cientos de opciones.
@OnofreOne
@OnofreOne 2 месяца назад
Adán, hasta el momento todo me funciona genial mejorando el aspecto de mis personas 3D, pero me falta poder cambiar expresiones faciales o ropa, te pongo el ejemplo de un trabajo real que me piden personas en pijama y sonrientes, es un filtro muy pequeño por lo que seria genial poder colocar algunas personas que no cumplan alguno de los requisitos como la sonrisa y luego modificarla. He escuchado que nombras ipadapter o algo parecido, pero por mas que pruebo con videos y tutoriales em ingles, no consigo que quede realista, haras video al respecto o que me recomiendas? Muchas gracias!
@adanmq
@adanmq Месяц назад
Hola!. IPAdapter es como un controlnet, pero tienes la posibilidad de especificarle que cara y que ropa tiene el personaje. Eso si, suele requerir un setup mas complejo y mucha prueba. Lo planeo cubrir después del verano, he estado malo estos días y no me dio tiempo xD. Casi todo lo que hay es en Ingles, pero igual viendo los workflows puedes tratar de hacerte una idea.
@CarlosHernández-k8s
@CarlosHernández-k8s 2 месяца назад
Hola Adán, muy buen video como siempre. He seguido el mismo proceso que haces pero obtengo un resultado incorrecto. Te podria enviar el jason o si no las capturas de los nodos? Saludos
@greckoist
@greckoist 3 месяца назад
me encanto muchas gracias una pregunta como se podria hacer con multimascaras o como se llama el nodo?
@adanmq
@adanmq 3 месяца назад
Con Multimatte?. Muy sencillo, cargas tu multimatte como imagen y usas el nodo que muestro en este video que se llama "convert image to mask" en ese nodo puedes seleccionar en canal RGB que prefieres para la mascara. Si te refieres a cryptomatte, no creo que tengamos un nodo que lo permita en comfy, tocaría sacarlas a mano desde el motor u otra aplicación. También hay herramientas de segmentación automática como yolo o similares. Los mostrare en futuros videos.
@needsomenice
@needsomenice 2 месяца назад
Thanks!!
@SirHeineken1
@SirHeineken1 3 месяца назад
That's awesome as always!!! Thanks!! ...BUT! Million dollar question: how do i manage masks of 2 or more people scattered at the opposite sides of the image(that would waste a lot of resolution space in the inpaint)? Do i need to load the image twice and then... hehe what do i do? Double positive text encodes? A "blend overlayed inpaint node"(idk if it exist). Excelent job, it would be sooo cool another in depth-analysis on this topic
@adanmq
@adanmq 3 месяца назад
Hi!. That's something I plan to cover in a different video. You can use SEGS to segment the process and make it focus only on the necessary parts. And you can combine this with automatic segmentation to fully automate the detection and inpainting of people. I choose to start with very simple tutorials as an introduction to the tools. If people are interested I can make more advanced ones. If you can ́t wait just explore the "Impact Pack" nodes. You can do it using those tools.
@Abelbus
@Abelbus 3 месяца назад
Yo no consigo encontrar el nodo "prepare image mask for inpaint"
@adanmq
@adanmq 3 месяца назад
Es un nodoe xtra que hay que instalar, en la descripcion estan los enlaces. Puedes ver el nombre del nodo en la parte superior para buscarlo en el manager.
@alvaro_marbert
@alvaro_marbert 2 месяца назад
Buenas, utilizo A1111 y quiero empezar a usar ComfyUI. Para evitar duplicar modelos y archivos, cambié la ruta de ComfyUI según comentaste en el tutorial anterior. Los checkpoints y modelos de controlnet me funcionan. Lo que no consigo enconrtar es como meter los preprocessors como depth, reference etc. Alguna idea de como se puede hacer?
@adanmq
@adanmq 2 месяца назад
esos son los de controlnet, para usarlos ya hay nodos especificos en comfyui con los nombres. Tambien peudes usar un load controlnet model.
@nomackleo
@nomackleo 3 месяца назад
Hola pasaba por acá y me encontré perdido, por la interfaz que estás usando y estoy lleno de dudas y ganas de aprender ¿Dónde aprendo a usar la aplicación que usas para todo el proceso?
@adanmq
@adanmq 3 месяца назад
En mi canal tienes un vídeo de introducción a comfyui. El enlace está en la descripcion
@nomackleo
@nomackleo 3 месяца назад
@@adanmq muchss gracias maestro.
@alvaro_marbert
@alvaro_marbert Месяц назад
Buenas, tengo una duda sobre qué grafica comprar para stable diffusion principalmente. Qué me recomiendas, la 4060 ti con 16 gb de Vram o la 4070 de 12gb de Vram. Estan las dos aproximadamente por el mismo precio y no se qué me conviene mas para este uso, si tener mas Vram o más velocidad de procesamiento. También la usaria para Unreal Engine. Muchas gracias por tu canal!!
@adanmq
@adanmq Месяц назад
@@alvaro_marbert normalmente es mejor más vram para ai. Aunque las generaciones sean un poco más lentas. Pero solo tú sabes que uso le darás.
@alvaro_marbert
@alvaro_marbert Месяц назад
@@adanmq muchas gracias Adan!
@cg_partner
@cg_partner 3 месяца назад
@user-mz7oh6qr6z
@user-mz7oh6qr6z Месяц назад
hay alguna manera de hacerlo para múltiples personajes como en el video de a1111?
@adanmq
@adanmq Месяц назад
Si claro. Tenia pensado sacarlo antes, pero lo hare ya despues de las vacaciones de verano. xD. Pero se peude hacer igual
@lucasthomasbecher5214
@lucasthomasbecher5214 3 месяца назад
Gracias miles Adán, vos sabes que no puedo econtrar el prepare image and mask :c
@lucascompagnucci
@lucascompagnucci 3 месяца назад
yo igual, seguramente hay que instalarlo, pero no lo encontre con ese nombre
@lucascompagnucci
@lucascompagnucci 3 месяца назад
ahi lo encontre, buscalo como: comfyui-art-venture el autor es sipherxyz
@lucasthomasbecher5214
@lucasthomasbecher5214 3 месяца назад
Claro yo también lo busque, incluso actualicé el confi pero nada
@adanmq
@adanmq 3 месяца назад
Es de un nodo extra, mira como se llama y búscalo con el manager. Si no sabes cómo mira el vídeo de introducción a comfyui
@adanmq
@adanmq 3 месяца назад
@@lucascompagnucci en mi vídeo verás que los nodos tienen un texto en la parte superior, este es de art-venture si no recuerdo mal. Pondré luego los links
Далее
How MVRDV is using AI to design their buildings
18:21
Просмотров 127 тыс.
Please Help This Superhero! 🙏
00:48
Просмотров 4,4 млн
4 YEAR SIBLING DIFFERENCE! 😭 #shorts
00:11
Просмотров 12 млн
AI generated 3D models are actually GOOD now!?
17:42
ComfyUI for Everything (other than stable diffusion)
32:53
Personas 3D Realistas en tus renders usando IA
13:08
Increase REALISM of 3D images with Magnific AI
9:08
Просмотров 46 тыс.
An introduction to Raymarching
34:03
Просмотров 140 тыс.