also irgendwie wollen die Tiny-Nodes bei mir nicht installiert werden. Ist aber auch wurscht, da das outpainting eh nicht so wirklich gut läuft. ich finde es cool, während der aufnahme einfach spontan etwas auszuprobieren :D kann ja schliesslich auch mal gut gehen! wie ist das denn mit der auflösung/dem seitenverhältnis beim outpainting? scheinbar kann das bild ja beliebig erweitert werden und es ist *piiep*egal welches seitenverhältnis ich habe? am ende kommen bei mir nur nackte und degenerierte körper bei heraus. klar habe ich verschiedene models probiert usw. aber einen wirklich guten übergang von einem semitranspareten stoff zum outgepainteten (was ein wort) bereich, sieht einfach schlecht aus. mir scheint das alles noch sehr beta zu sein. trotzdem danke für deine mühe und zeit! Mach weiter so!
Please, explain in more details, what the "pipeLoader-PipeSampler-Image Input Switch" node chain is used for, what is the point of using it? I can't understand, sorry
You can either chose to create an image by using the sampler (by setting the green node to 0) or to use the image loader (green node to 1). So first create an image with the sampler, after that you can outpaint it by using the load image node. That's the part of the image switch node.
@ALatentPlace thank you. I think I understood a little what you mean. My problem is that I needed to do just the opposite - outpaint the uploaded image, and couldn't figure out why it didn't work. With SD 1.5 models, I used Automatic 1111 + ControlNet with preprocessor Outpaint , and now I use SDXL models in ComfyUI, but there is no this preprocessor for them yet, and I am looking for other solutions.
Ich bin gerade leider nicht am Rechner (schlimmes WE hier :D ), aber es gibt jetzt eine Input Switch Any Node (oder so ähnlich). Ist auch im Impact Pack, die kann man dafür benutzen.
Wie ist das mit dem feathering, muss ich mir das wie einen Übergang der Maske an den Rändern ins transparente vorstellen? Und kann man das feathering auch bei dem inpainting verwenden?
Masken sind schwarz/weiß Bilder. Im weißen Bereich wird das Bild ersetzt, im schwarzen Bereich bleibt der alte Inhalt bestehen. Das Feathering sorgt mit grauen Übergängen für einen Wechsel zwischen schwarz und weiß. Beim Inpainting benutzt man eigentlich nur reines schwarz/weiß. Ich habe Tests mit Feathering ausgeführt, die führen aber nur dazu, dass die grauen Bereiche einfach nur verwaschen aussehen. Beim Outpainting hingegen scheint es mehr Vorteile zu haben, da die Übergänge dadurch wesentlich sinniger und fließender werden. Warum das intern so gehandhabt wird kann ich leider nicht sagen. Im Prinzip ist technisch gesehen In- und Outpainting das Gleiche.
What kind of error do you get? I still can open and download it and also open the downloaded version in ComfyUI. I have also checked the visibility on Pastebin, it's on public.
Thanks for this great tutorial, there is so not enough thinghs about outpainting on comfyui on youtube! Btw, I have a problem when I reuse an outpaint inmage in the workflow, that generates a grey aera all around the reference image. Do you have an idea what's going wrong ?
Hallo! Darf ich hier evtl. einen einladungslink zu meinem noch sehr jungen dc-server posten? ist nichts professionelles, aber es soll speziell um ai-art mit sdxl gehen. auch gern anderes. Ich spare auch auf eine grafikkarte, damit ich comfyui beginnen kann. ich kann sagen mit 16gb ram und ryzen 2400g dauert ein sdxl1.0 bild im cpu-mode 3 std. Vielleicht gibt es ja interessierte, die einfach mal schauen wollen? über professionelles feedback würde ich mich natürlich auch freuen. LG!
Da Du nett gefragt hast kannst Du das gerne mal hier machen. 3 Stunden, autsch. Ich hatte noch nie mit CPU gearbeitet. Das mal zu hören ist gut, tut aber gleichzeitig auch weh. :D Mein Mitgefühl.
Links zu all meinen installierten Custom Nodes finden sich immer in der Beschreibung des Videos. Falls der ComfyUI Manager installiert ist: Hier kann man mit der Funktion "Install Missing Custom Nodes" die fehlenden Node Pakete automatisch installieren lassen. Wenn die TinyTerra Nodes rot sind: Das ist leider eine "Feature" der TTN. Dadurch markiert der Entwickler Updates mit Breaking Changes. In dem Fall hilft leider nur das austauschen der markierten Node(s) durch die aktuelle Version.
Hier und da werde ich sicherlich im Video tüfteln und in Fehler rennen. ^^ Aber in dem Beispiel habe ich meinen Workflow einfach total kaputt gemacht. :D
Also bei meinen Outpaintings (noch a1111) ist es meist so gewesen das die Outpaintingbereiche zu groß waren, habe dann kleinere gemacht und das ging dann etwas besser.
Ja, selbst ein kleiner Bereich um ein Bild herum kann teilweise von den Pixeln her ziemlich groß werden. Da bekommen Models ggf. Probleme mit. Kleinere Bereich helfen da.