Тёмный
A Latent Place
A Latent Place
A Latent Place
Подписаться
Welcome to 'A Latent Place'! Here, you'll discover a world where creativity and technology converge. Our channel is the space for anyone interested in AI image generation, seeking to understand how we use algorithms and innovative tools to craft unique artworks. We'll take you behind the scenes, showcasing how we create visual masterpieces using AIs like Stable Diffusion and a sprinkle of magic. Join us in learning how to experiment with AI models and achieve astonishing results. Whether you're a beginner or an advanced user, our community offers inspiration, tutorials, and discussions surrounding AI image generation. 'A Latent Place' is where art becomes accessible, and together, we explore the boundaries of creativity. Join us and let's embark on an inspiring journey together!

Specs:
CPU: AMD Ryzen 9 3900x
RAM: 32GB
GPU: Nvidia 3080TI 12GB VRAM
ComfyUI: Material Transfer | German
20:50
Месяц назад
Комментарии
@deheinrich4785
@deheinrich4785 10 дней назад
hi wie kommt das dass du beim ksampler noch so eine vorschau während des generierens bekommst?
@ALatentPlace
@ALatentPlace 9 дней назад
Das ist eine Option im Comfy Manager, nennt sich Preview Method. Dort kann man das einschalten. :)
@user-gr9ov2js2p
@user-gr9ov2js2p 20 дней назад
how can i get tihs controlnet model name"control sd15 inpaint depth hand fp16.safetensors "?
@ALatentPlace
@ALatentPlace 20 дней назад
Here: huggingface.co/hr16/ControlNet-HandRefiner-pruned/blob/main/control_sd15_inpaint_depth_hand_fp16.safetensors
@user-gr9ov2js2p
@user-gr9ov2js2p 20 дней назад
oh i got this model thankyouSir it's very helpful for me !
@user-gr9ov2js2p
@user-gr9ov2js2p 20 дней назад
@@ALatentPlace thankyou Sir! Additionally, my “MeshGraphormer Hand Refiner” node is reporting an error message of “An error happened while trying to locate the file on the Hub and we cannot find the requested files in the local cache. Please check your connection and try again or make sure your Internet connection is on.”. How can I resolve this issue
@josemariagala2588
@josemariagala2588 22 дня назад
How can i see the node search popup?
@ALatentPlace
@ALatentPlace 22 дня назад
Double click on the canvas.
@josemariagala2588
@josemariagala2588 21 день назад
@@ALatentPlace Thanks for the info! Great video :) This flow would be applicable to design spaces with detail? and that brand logos are recognisable?
@holawholaw
@holawholaw 22 дня назад
How to make the Ksampler node showing the image
@ALatentPlace
@ALatentPlace 22 дня назад
There is an option in the ComfyUI Manager, called Preview Method.
@analysierer9456
@analysierer9456 Месяц назад
Kann es sein das es Dave22 nicht mehr gibt?
@ALatentPlace
@ALatentPlace Месяц назад
Den gibt es noch: github.com/Davemane42/ComfyUI_Dave_CustomNode
@lupla78
@lupla78 21 день назад
@@ALatentPlace Leider wird da nicht mehr weiter entwickelt. Anfang April wurde das Repository archiviert. Auf civitai wurde auch schon geschrieben, dass es nicht mehr funktionieren würde.
@jhj6810
@jhj6810 Месяц назад
I did not get what is ipadapter noise for. Someone can help?
@ALatentPlace
@ALatentPlace Месяц назад
You can use it as negative image in the IPA, meaning it will send a noisy and blurred image to the unconditioning. By this you tell the model, that you do not want noisy and blurred images.
@freekhitman9916
@freekhitman9916 Месяц назад
really good tutorial need to test that with my newer models and thanks that you love my fenris xl model ;-)
@ALatentPlace
@ALatentPlace Месяц назад
Hey. :) Also thanks for this nice model.
@freekhitman9916
@freekhitman9916 Месяц назад
@@ALatentPlace thanks even the 16.4 is slightly outdated compared to my newer models for example "ragnarök", it has this "classic look" and love cats ;-)
@ALatentPlace
@ALatentPlace Месяц назад
yeah, i have to do some updates on my models collection. havent done for a while yet. :D
@robertherlet
@robertherlet Месяц назад
Wieso stellt dein LoadCheckpoint so eine schöne Ordnerstruktur dar?? Sieht bei mir immer noch aus wie Kraut und Rüben... 😁
@ALatentPlace
@ALatentPlace Месяц назад
Das kommt glaube ich aus den rgthree nodes. :)
@robertherlet
@robertherlet Месяц назад
@@ALatentPlace Danke, das war's tatsächlich 🙂
@sanbaldo
@sanbaldo Месяц назад
great tutorial Marco!! if you invert the mask, you can also change the background instead of the subject :D
@ALatentPlace
@ALatentPlace Месяц назад
Thanks. That's correct. :)
@willsmithorg
@willsmithorg Месяц назад
Thanks for the English version. Previously I was watching your German videos with subtitles.
@ALatentPlace
@ALatentPlace Месяц назад
Thanks for the feedback. :) I thouthg, by this it could be easier to watch, although I'm still in the process of finding a good workflow for the English versions.
@kakochka1
@kakochka1 Месяц назад
The same, although I abandoned the idea of watching with subs. @ALatentPlace Could you maybe translate you previous relevant vids the same way?) I'd love to watch them!)
@ALatentPlace
@ALatentPlace Месяц назад
I thinking about also providing some previous videos translated. But it wouldn't make sense for all of them.
@profitsmimetiques8682
@profitsmimetiques8682 Месяц назад
Hi ! I wanted to know if you have any idea how zia fit on I.ns.sta is made ? It's a specillized ai agency (themixedai) behind and i don't know what kind of workflow they use to get this level of quality, consitency. It seems that the base image is an exsiting one, but then they maybe use a 3d pose character + openpose + lora for body + lora for face, but something is off. I you have any idea on how to do that it would be really interesting to know, they are kinda the best in their field.
@profitsmimetiques8682
@profitsmimetiques8682 Месяц назад
Hi ! I wanted to know if you have any idea how zia fit on I.ns.sta is made ? It's a specillized ai agency (themixedai) behind and i don't know what kind of workflow they use to get this level of quality, consitency. It seems that the base image is an exsiting one, but then they maybe use a 3d pose character + openpose + lora for body + lora for face, but something is off. I you have any idea on how to do that it would be really interesting to know, they are kinda the best in their field.
@nkofr
@nkofr Месяц назад
love your content. update to get "composition precise" :)
Месяц назад
It doesn't matter if it's German or English. What matters is the time you spare for us. Thank you.
@ALatentPlace
@ALatentPlace Месяц назад
As a prototype I now prepared an English version of my latest video. If this goes well, I think about continuing of releasing new videos also in an automatically dubbed version. Let me know what you think.
@esuvari
@esuvari Месяц назад
You should definitely keep this up (english version) Don’t know if you’re eligible for youtube partners program but if you are, it’s even possible to add additional audio tracks on a single video, so you don’t have to upload multiple videos for each language. I think first you need to apply for that feature and get selected though.
@ALatentPlace
@ALatentPlace Месяц назад
I am partnered with YT, but there is still no option to upload multiple audio tracks. I guess it's still in beta for only selected channels.
@stropol111
@stropol111 Месяц назад
👍👍👍👍👍👍👍👍💯
@RuinDweller
@RuinDweller Месяц назад
"Error when executing KSampler: Expected query, key, and value to have the same dtype, but got query.dtype: struct c10::Half key.dtype: float and value.dtype: float instead." :( It worked ONE TIME. After that I got that message every time, although I didn't change ANYTHING.
@AbsolutelyForward
@AbsolutelyForward Месяц назад
Sehr cool! Und hoch spannend, dass die erwähnten 12 Stable Diffusion Layer erst jetzt adressiert werden - oder hab ich was verpennt 😅?
@ALatentPlace
@ALatentPlace Месяц назад
Inzwischen ist es schon ein paar Monate bekannt, aber es tut sich noch so manches in dem Bereich. Und im KI Bereich kann man schon mit einem Augenblinzeln Dinge verpennen. :D
@denisquarte7177
@denisquarte7177 Месяц назад
@@ALatentPlace Im Bereich eines neuen Models könnte sich ruhig noch mehr tun. Immerhin scheinen einige Leute an einem besseren VAE zu arbeiten (16ch anstatt 4, die jungs von 'Würschten' aka Cascade z.B.). Leider sind viele Werkzeuge wie Gligen, InstanceDiffusion, IC Light etc. immer noch auf (trainings)stand von sd1.5 und omost damit auch nur spielzeug, das viel zu viel Inpainting erfordert um nützlich zu sein. Comfy gibt jetzt zumindest Vollgas da er nach dem sd3 Debakel seinen Hut bei stability genommen hat. Dem Interface hat es gut getan und ich hoffe er ist damit auch finanziell erfolgreich. Dann profitieren wir nämlich alle.
@denisquarte7177
@denisquarte7177 Месяц назад
@@ALatentPlace ach ja, und eine sehr gute entscheidung abstand von irgendwelchen "all in one nodes" zu nehmen, das überfrachtet visuell und überfordert anfänger.
@AbsolutelyForward
@AbsolutelyForward Месяц назад
@@denisquarte7177 Kommt SD3 nicht auch mit 16 chanel (?) daher? Ich habe noch nicht verstanden was der Unterschied zwischen 16ch und 4ch konkret bedeutet bzw. wo der Vorteil liegt? Kannst du hierzu ins Detail gehen?
@AbsolutelyForward
@AbsolutelyForward Месяц назад
@@ALatentPlace oupsi - na dann, bin ich ja mal gespannt ob man den restlichen 10 Layern + der IP-Mad node auch noch was verrücktes machen kann oder ist das quatschi, weil nur Layer 3+6 relevant für den IPadapter sind?
@weaze5583
@weaze5583 Месяц назад
Sind die "layerweights for ipams" gleich bei 1.5 und XL ? Ne oder ? Mist, fällt mir ja früh auf.
@ALatentPlace
@ALatentPlace Месяц назад
Nein, die Layer sind bei 1.5 und SDXL unterschiedlich. Für 1.5 kannst Du mal die Precise Style Transfer Node verwenden. Matteo schrieb dazu in unserem Discord: SDXL: Start with a weight of 1.0, you may need to lower it up to 0.7. For the style_boost try 2.0 and move from 1.5 to 3.0 SD 1.5: Start with a weight of 1.0 and try a range of 0.8-1.5. Start with a style_boost of 0 and move from -1 to +1.
@nkofr
@nkofr Месяц назад
Nice! very handfull custom node, I was thinking about doing the same :) cheers & danke schön
@DieterStoll-b8i
@DieterStoll-b8i Месяц назад
Ist es immer noch nicht möglich, die IPAdapter Models ausserhalb der ComfyUI-Instanz zu speichern und extra_model_paths.yaml zu nutzen?
@ALatentPlace
@ALatentPlace Месяц назад
Doch, das geht schon seit längerem.
@DieterStoll-b8i
@DieterStoll-b8i Месяц назад
@@ALatentPlace Obwohl alles aktualisiert, heisst es bei mir "IPAdaper Models not found". Beim Start steht im Terminal: "Adding extra search path ipadapter D:/SD-models/ipadapter/" und dort sind die Models gespeichert.
@ALatentPlace
@ALatentPlace Месяц назад
Haben die Files auch die richtigen Namen?
@DieterStoll-b8i
@DieterStoll-b8i Месяц назад
@@ALatentPlace Hab' alles von der "Matteo-Seite" heruntergeladen und gemacht, was er vorgeschlagen hat.
@jaredbeiswenger3766
@jaredbeiswenger3766 Месяц назад
Appreciate these examples.
@pixelcounter506
@pixelcounter506 Месяц назад
Very informative. Thank you very much for going deeper into IPA and all these interesting alternatives! Quite overwhelming in respect of RL.^^
@garkeiner7116
@garkeiner7116 Месяц назад
Sehr interessant, Danke ..
@suganesan1
@suganesan1 2 месяца назад
1:15 when you select checkpoint, checkpoint loader shows folder in selection tab. How to enable this folder view?
@ALatentPlace
@ALatentPlace 2 месяца назад
This is done by the rgthree plugin.
@suganesan1
@suganesan1 2 месяца назад
@@ALatentPlace thanks for your response, I got it after updating rgthree custom node
@makadi86
@makadi86 2 месяца назад
I have installed ComfyUI_yanc but I cant find the NIKSampler node!
@yangerwin3360
@yangerwin3360 Месяц назад
same as me.
@WatchNoah
@WatchNoah 2 месяца назад
Klasse Video, kleine Anmerkung es heißt "neuronales Netzwerk"
@christianstania7023
@christianstania7023 2 месяца назад
Krita nutzt seit dem neuesten Update auch IPAdapter Embets und weight_type style transfer | composition. Ihr findet die generierten ComfyUI Workwlows in: den in C:\Users\<user>\AppData\Roaming\krita\ai_diffusion\logs.
@jorgvollmer5971
@jorgvollmer5971 2 месяца назад
hmm interessanter Ansatz, aber ich finde ja, dass das Bild an Qualität verliert. Es wird flacher, verliert Kontrast und wird generell grauer. Die Specular Map müsste aus dem Bild generiert werden und nicht über einen einfachen rgb-Wert.
@ALatentPlace
@ALatentPlace 2 месяца назад
Das geht. Du kannst aus dem Bild eine Maske erstellen und diese je nach Bedarf bearbeiten, um z.B. nur die hellen Bereich maskiert zu bekommen. Das dann als Specular Map verwenden.
@sky-nomad
@sky-nomad 2 месяца назад
One question. I don't understand how the "daisy chain" of the Simple Light Source functions. The first "Simple Light Source" box works and produces a OK gradient. I get an error when running to the second "Simple Light Source" box and the process stops wth an error that says: "Error occurred when executing LightSource: LightSource.execute() got an unexpected keyword argument 'prev_image' File "/Users/kaisairanen/AI/ComfyUI/execution.py", line 151, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/Users/kaisairanen/AI/ComfyUI/execution.py", line 81, in get_output_data return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "/Users/kaisairanen/AI/ComfyUI/execution.py", line 74, in map_node_over_list results.append(getattr(obj, func)(**slice_dict(input_data_all, i))) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^" There is a difference in the 4*"Simple Light Source" boxes in the workflow that I copied from your link and opened in my computer (Macbook Pro M1) in that the fift argument after "end_color #000000" which can be seen in your video, namely "batch_size 1" is missing from my "Simple Light Source" diagram view - might that be the reason?
@ALatentPlace
@ALatentPlace 2 месяца назад
Are your ComfyUI and the ICLight nodes up to date? Ususally, if a field is missing it indicates a missing update. The prev_images internally just batch in inputted image with the created one, so you get a batch of all chained images in the last node.
@sky-nomad
@sky-nomad 2 месяца назад
I got the workflow fixed though by replacing the daisy chain by an "Image Batch Multi" node. Works perfectly now also in my environment.
@sky-nomad
@sky-nomad 2 месяца назад
Great content - well presented and really useful!
@Pascal_Tesla
@Pascal_Tesla 2 месяца назад
Gute Zusammenfassung. Danke dafür. Waren 2-3 sachen die mir neu waren 😀
@Beauty.and.FashionPhotographer
@Beauty.and.FashionPhotographer 2 месяца назад
rechts klick auf das bild hier geht beim mac dann gar nicht.
@3dpixelhouse
@3dpixelhouse 2 месяца назад
also irgendwie wollen die Tiny-Nodes bei mir nicht installiert werden. Ist aber auch wurscht, da das outpainting eh nicht so wirklich gut läuft. ich finde es cool, während der aufnahme einfach spontan etwas auszuprobieren :D kann ja schliesslich auch mal gut gehen! wie ist das denn mit der auflösung/dem seitenverhältnis beim outpainting? scheinbar kann das bild ja beliebig erweitert werden und es ist *piiep*egal welches seitenverhältnis ich habe? am ende kommen bei mir nur nackte und degenerierte körper bei heraus. klar habe ich verschiedene models probiert usw. aber einen wirklich guten übergang von einem semitranspareten stoff zum outgepainteten (was ein wort) bereich, sieht einfach schlecht aus. mir scheint das alles noch sehr beta zu sein. trotzdem danke für deine mühe und zeit! Mach weiter so!
@dowhigawoco
@dowhigawoco 2 месяца назад
Ich mag ja echt deine Videos die sind wirklich sehr hilfreich aber manchmal denk ich mir " is der aufwand wirklich das wert oder soll ich doch lieber das Bild am schluss mit Photoshop bearbeiten " :)
@ALatentPlace
@ALatentPlace 2 месяца назад
Der Gedanke ist auch absolut berechtigt. Es spricht nie etwas dagegen, andere Tools für das gezeigte zu verwenden. Da mein Kanal Comfy als Schwerpunkt hat versuche ich aber, alles auch in Comfy zu machen. Das heißt nie, dass es mit anderen Tools nicht einfacher, oder wahrscheinlich auch besser geht. :D Ein Anwendungsfall könnte aber sein, dass man per Script 1000 Bilder erzeugen lassen möchte. Dann ist ein automatisierter Workflow natürlich von Vorteil. Und da ComfyUI eigentlich ein Server ist, der ein UI erhalten hat, sind Aufrufe von außerhalb auf den Server auch eine Option. Wie zum Beispiel über ein Web UI, mit dem man den Workflow triggert und schon im Web gewisse Funktionen erhalten möchte.
@3dpixelhouse
@3dpixelhouse 2 месяца назад
vielen dank! ich bin mir noch nicht sicher, welcher upscaler wirklich was taugt und überzeugende ergebnisse liefert. mehr kontrast und kräftige dunkle linien an den konturen braucht ja kein mensch! aber hey, ich mag deine unaufgeregte, ruhige art. mach weiter so!
@user-rk3wy7bz8h
@user-rk3wy7bz8h 2 месяца назад
Nice. Ein Video zu Pulid wäre noch sehr hilfreich da die Installation zu kompliziert ist. Viel Erfolg :)
@Liqwalker123
@Liqwalker123 2 месяца назад
Kein Workflow ? :(
@Pascal_Tesla
@Pascal_Tesla 2 месяца назад
Danke für den Vergleich. Sehr interessant. Errinert mich an OpenOutpaint für A1111. Da gibt es auch die möglichkeit für das inpainting "img2img" variante zu nutzen und die "dream" variante. Dream = Orginalpixel verden mti verwendet., img2img wird komplett neu berechnet. PS: Wie stellst du es ein das du im ksamler eine preview hast?
@ALatentPlace
@ALatentPlace 2 месяца назад
A1111 habe ich nicht lange verwendet, aber es klingt sehr danach, ja. Die Preview kannst Du im Manager einstellen, Preview Method.
@dannywei
@dannywei 2 месяца назад
Amazing technology. I felt excited to watch this video. I was confused about how to improve detail and clarity in low resolution. It does help me a lot.
@magimyster
@magimyster 2 месяца назад
Hi! Thanks for the great guide! To better blend hair with the background, I used "u2net: general purpose" within the remove background session. I found that it provided better results for hair segmentation.
@matthewfuller9760
@matthewfuller9760 3 месяца назад
Amazing video. Thanks for the subtitles. Can you share with me your system specifications? Especially gpu and ram? Thanks!
@ALatentPlace
@ALatentPlace 3 месяца назад
Thanks. :) I have a 3080 TI and 32GB RAM. CPU is a Ryzen 3900x. But I speed up parts in the videos, to not only show denoising time.
@matthewfuller9760
@matthewfuller9760 3 месяца назад
@@ALatentPlace interesting. Do you wish you had a slow card but more VRAM? The 4060 ti is so slow but when you run out of vram you pay a 10 to 100x performance penalty right?
@Liqwalker123
@Liqwalker123 3 месяца назад
SAM ist ja unfassbar stark! freue mich schon drauf das auszuprobieren. Ich schaue gerade alle deine Videos, da du dir sehr viel Zeit nimmst und ausführlich erklärst dauert das ganze ein wenig aber es macht spaß die Videos zu schauen! Vielen Dank für die Serie!
@HasiorSchoderwos
@HasiorSchoderwos 3 месяца назад
Ich schaffe es nicht CLIPSeg zu installieren, es wird einfach nicht importiert! Alles andere funktioniert, nur diese eine Node nicht, gehts anderen auch so? Ansonsten, wie immer ein klasse Video Hasior UPDATE: Ich habe den PIP Pfad neu eingetragen und nun funktioniert alles 🙂 ABER, wie oder wo stelle ich es ein, das jede Box auch so beschriftet ist wie bei dir?! (KJNodes for ComfyUI)
@stephankuebler762
@stephankuebler762 3 месяца назад
@A Latent Place - Q= Habe jetzt schon viele RU-vid videos gesehen und täusche ich mich oder läuft der Workflow bei Dir nicht immer von ganz am anfang an ? Falls ja - wie mache ich das... Bei mir startet jedes "Queue Prompt" klicken bei step 1. Bedeuted im diesem beispiel es würde 1 Bild (4Sampler) 80 mal Rendern um 1 einstellung zu Testen. ;(
@ALatentPlace
@ALatentPlace 3 месяца назад
Comfy updated nur die Nodes, die sich verändert haben. Deswegen stelle ich den Seed immer auf "fixed", damit der Sampler nicht neu denoised.
@DjHerzbeben
@DjHerzbeben 3 месяца назад
Hey tolle Seite kannst du mir ein Beispiel zeigen wie man ein Clip erstellt wo eine Tanz also Musik Video für TikTok möchte ich machen mit eine oder 2 Damen die Dance machen
@Liqwalker123
@Liqwalker123 3 месяца назад
Ich finde du hast das sehr gut gemacht. Du hast frei gesprochen, du hast Pausen genutzt und Bilder eingesetzt. Von mir würdest du für diese Präsentation eine 1 bekommen.
@pixelcounter506
@pixelcounter506 3 месяца назад
Thank you very much! Regarding this new node, foreground lighting is great! Regarding background changes, I'm not really convinced at the moment (but I still have to start with IC-Light). If your light source for the foreground (e.g. face) stays the same and you are lightening only the background, you'll have the impression that the face becomes darker und less prominent. It's the other way round, if you are only darkening the background (and the face still has the same light intensity). The face will be lit to same amount, but becomes more prominent in the image due to the lower light intensity of the background.
@ESnet3D
@ESnet3D 3 месяца назад
Nice Collection! Wenn man im Folder das %date% Format mit eingibt: MeinOrdnername/%date:dd-MM-yyyy% wirft die Node nen Not a Directory Error 427 aus
@ALatentPlace
@ALatentPlace 3 месяца назад
In der Save Node wäre das: MeinOrdnername/%d-%m-%Y