Hasta ahora es lo mejor que hay. Pero no entiendo por qué no dan el paso. Esto (generación mediocre y pesada en 2 segundos) + más tiempo + retopología automática (existe) + texturas 2K o mayores = mina de oro
HOLA PATRICIO , SOY CARLOS DE ARGENTINA , PROBE EL PROGRAMA Y ES FANTASTICO , PERO ME SALE UNA IMAGEN 3D CON POCA DEFINICION , COMO PUEDO DARLE MAS DEFINICION GRACIAS
bueno si funciona con 1 click, pero el modelo sale una mie.... . No hay algo con stable difusion donde le puedas poner mas imagenes y que me genera un muchisimo pero muchisimo mejor modelo 3d?
siempre me parecieron muy rompedores tus videos trayendo todo lo nuevo sobre la IA generativa de imagen y relacionados para un publico que empieza y para los que sabemos un poquito mas que no nos quedemos con ganas de exprimir al maximo las capacidades de esta tecnologia, dicho esto como alguien que tiene conocimientos de impresion 3D poseedor de una impresora 3D hace muchos años tengo que contarte lo mal que me cayo el tiempo que dejaste hablar y mostrar las impresiones 3D a esa persona que quizas sea tu amigo o conocido y quizas tenga toda la mejor intension pero no tiene el conocimiento necesario como para usar las muchas y simples herramientas 3D que existen desde antes de la masificacion de las impresoras 3D con la que cuenta toda persona que se dedica a la impresion 3D y hace algo mas que bajar modelos STL e imprimirlos, hay herramientas por todos accesibles gratis muy livianas para hacer una retopo de la malla limpiar vertices y suavisar el modelo que, sin contar con otras tecnicas de tratamiento de las piezas ya impresas que hubieran dado un mejor sabor de boca todos los que comentaron con justa razon la mala calidad decepcionante de los modelos impresos por la persona que vimos en este video que podra tener la mejor pero no tiene el conocimiento como ya dije para limpiar apropiadamente con programas muy sencillos la malla para despues hacer una impresion decente mas alla de que todavia los modelos sigan teniendo cierta rugosidad creo que la iluminacion del sujeto a convertir en 3D y la calidad/resolusion de la imagen que se sube para convertirla luego en 3D tiene mucho que ver con esa "rugosidad"...
La gracia de enseñarlas "mal" era ver el resultado final sin tener que tocar nada mas que simplemente el "modelo final" de tripo, lo que genera tripo, es lo que se enseña Creo que engañaría a la gente si tuviera que pasar el modelo a otros programas para mejorarlo, como coger una foto de stable difusion y pasarla a Photoshop para mejorar lo que está mal. Entiendo tu punto igual, pero creo que era el momento de enseñar lo que tripo te ofrece directamente
pude hacerlo funcionar aunque el de remover fondos no me dejo agregarlo como missing, otro mas si, igual use el background remover bmg que ya tenia y con ese si fue bien, como comentario probé con los modelos de 3dwonder , zero1234 que son similares pero el resultado no cambio mucho, el que no pude usar es el de 3dwonder de 15gb pero porque no me da la placa que tiene 12gb de vram, las texturas es verdad que salen bastante qe deja que desear, y lo que recomiendo a los que vallan a probarlo agreguenle el save image, porque por ahi generan algo bueno y el ejemplo solo tiene el preview
Es una locura, para que el que haga modelos le ahorra un montón de trabajo, en muchos casos solo tendrá que hacer retopo, con dibujar o pedirle a una IA que haga una imagen te ahorras un montón y no que hay que ser tan bueno modelando, que pasada
Es buenísimo que me hagas una crítica si es constructiva. Muchas gracias x tu comentario. La verdad que tengo que buscarle un objetivo que cubra más ángulo yo TMB lo pienso. (Tienes toda la razón). Gracias ❤️
Aquí el de las figuritas x) Muchas gracias por la charlita Patricio, y por tanta información! La escena de los ositos es la ostia, se puede hacer tantísimo con tan poco..! Qué presente y futuro!
Anda no sabia que tenias un canal de AI, soy un alumno tuyo de segundo año de DAM Cesur. Me da que me tendré que comer todos tus videos ya que es el campo que me gusta.
JAJAJA. Me alegra oir eso, espero que me digas tu nombre que seguro que me acuerdo de ti (espero que solo tengas palabras buenas para tu profe!!). Saludos 💗
Buff de lokooos🤯, me ha encantado el video patri. la verdad que me ha impresionado la velocidad y además la versatilidad de confyUI para ejecutar el modelo de 3D, es una pasada, y la escena de unity, impresionante💯💯💯
ayer quise provar el layer diffusion y el layer diffuse del mismo chino y palmo el comfyui literal no generaba nisiquiera imagenes, lo quite y volvio a andar, asique nose que onda, el que anda bien es el removebackground creo que se llama, ese quita el fondo bien
Me parecen un horror y si le quitas la texturas ya casi no sabes si es un pato o una mesa hahahahhah. Si lo ves desde el punto que es nuevo y que es iA y mejorará pues no esta mal, pero aun le queda un tiempo y seguro que en unos años mejorará.