Das ist nicht böse gemeint aber irgendwie funktioniert es bei mir irgendwie nicht 😢 das gui öffnet sich aber es tut nix und es kommt ein error. Warum werden in solchen RU-vid Videos nie errors😢 gezeigt?
Danke für das Video. Tja, die Sache mit den Einstellungen. Meine Erfahrung ist, dass man am besten immer auf das SDXL Basismodell trainiert, so wie du es auch getan hast. Dann ist die Kompatibilität zu den anderen Modellen recht gut. Manchmal bekommt man mit bestimmten Einstellungen ein Mega-Ergebnis und nimmt diese bei einem anderen Datensatz. Und dort funktioniert es irgendwie nicht. Ist immer auch ein Glücksspiel. Das A und O ist wirklich die Auswahl der Bilder für den Trainingsdatensatz. Am besten 12 bis 25 Bilder, handverlesen, mit sehr unterschiedlichen Posen, Entfernungen, verschiedenen Umgebungen, Kleidungswechsel und Tageszeiten. Bei jedem Bild kritisch prüfen: "Bin das ich? Würde mich jemand auf Anhieb auf dem Bild erkennen? " Denn auch auf natürlichen Fotos ist man mitunter ungünstig getroffen. Möglichst keine Handy-Selfies. Die verzerren die Gesichtszüge. Lieber jemanden aus der Distanz fotografieren lassen.
Wie immer ein interessantes Video. Was auch interessant wäre ist ein Video über das erstellen von Bilder und das Trainieren von LoRas mittels Cloud Computer (abseits von CivitAI bzw. Leonardo). Möglicherweise Google Colab oder ähnliches.
Ich finde deine Videos super und bin sehr dankbar dafür. Du hast mir schon viel gelernt. Allerdings hätte ich ein LoRa-Video über FLUX interessanter gefunden, da man ein Lora für SDXL wegen Instant-ID nicht unbedingt benötigt meiner Meinung nach. LG
Instant-ID und eine LoRA ist schon was anderes. Kommt aber natürlich auch auf die erstellte LoRA an. Eine gut trainierte LoRA Datei ist deutlich genauer in der Nachbildung des Charakters und, dies ist ja auch nur ein Beispiel am Charakter. Man könnte auch neue Styles versuchen über eine LoRA zu erzeugen usw. FLUX würde ich dann im nächsten Video direkt über CivitAI erstellen und zeigen. Das Bilderset bleibt dabei gleich. Die Captions macht dann CivitAI über ein spezielles Modell. Die Parameter Einstellungen sollte man dann auch einfach auf sein eigenes Kohya GUI übertragen können.
@@wossi86 Natürlich ist das was Anderes. Ich finde aber man ist durchaus in der Lage mit den richtigen Einstellungen (Mohawk checkpoint + inpainting) ein so gutes Abbild zu erschaffen, dass man für SDXL kein LoRA mehr braucht. In FLUX ist das natürlich etwas anders, hier haben wir ja leider noch kein Instant-ID. Wenn du ein LoRA-Video für FLUX über Civitai machen willst würde mich das sehr freuen, so habe ich meine LoRAs bisher auch gemacht, aber ich würde gerne noch was dazulernen. Hoffentlich kommt das Video bald ;). Danke für die Arbeit, die du dir machst
super Thema, was man ev. weiter vertiefen sollte. Auswahl der Bilder, schon da kommt die Kernfrage, - welche lora will man erstellen ? Eine Face-Lora, wie in diesem vdo, ist wohl der gängiste Weg. Dann kommt die Charater-Lora, wo man verschiedne Emotionen und verschiedene Blicke trainiert, und am Ende die Body-Shape-Lora, wo eben auch den verschiedenen Körperteilen Rechnung getragen werden. Wer dann mehrere Loras mit unterschiedlichen "Gewichtungen" von sich selbst in den Generierungsprozess einbringen will, da sind dann die Experten gefragt. Doch man sollte zunächst mit der Bilderauswahl beginnen - sollen Bilder enhanced werden, damit man bessere Qualität hat ? Wieviel unterschiedliche Objektiveinstellungen ? Soll man KI generierte Bilder von sich selbst, in bester Auflösung verwenden ? Am Ende ist man beim Arbeiten am Bild Stunden dabei, mit fooocus den Blick der Augen zu einem gewünschten Ergebnis zu bekommen, und es klappt ... erstmal nicht.
Sehr gute Arbeit Wossi. Danke dafür! Eine Frage noch: Wie speichere ich die eingegebenen Daten in der Kohya-GUI, sodass ich sie nicht jedes Mal neu eingeben muss?
Super Video ! Kannst du die Promps womit du die Bilder letztendlich generiert hast, auch posten. Bzw wie hast du diese tollen Bilder zum Schluss von dir generiert. Das wäre wirklich sehr interessant .
Toller Beitrag. Frage dazu. Wenn ich zu wenige Bilder mit den verschiedenen Gesichtszügen habe, dann kann ich der KI doch zusätzliche Bilder generieren lassen und mit denen die mir zusagen, ein besseres Modell generieren, oder was meinst Du?
Dies ist immer Unterschiedlich. Du wirst merken, wenn du z.B. Gesichtszüge generierst, die du nicht mit im Bilderset hattest, kann der Charakter leicht oder auch stärker abweichen. Dies ist aber immer verschieden, je nach Dataset. Wenn du eine Charakter LoRA haben willst, die sehr gut funktioniert, dann lohnt es sich auch verschiede Emotionen einzufangen und auch beim Erfassen zu umschreiben (big grin, cute smile, sad face, usw)
Meine Erfahrung: Die Pony-Modelle sind ein bisschen "zickig". Pony verzerrt häufig das Ergebnis. Am Ende gibt es zu große Nasen oder Ohren oder Augen oder das Gebiss wirkt riesig. So richtig habe ich noch keine perfekte Einstellung gefunden. Zumindest empfehle ich, auf dem Pony-Basismodell "Pony Diffussion V6 XL" zu trainieren. Somit kann man dann auch das LoRA bei den Pony-Realistic-Modellen gut einsetzen.