Bonjour, Bienvenue sur la chaine AiAndPixels. Ici je vais vous parler d'images générées par des algorithmes basés sur de l'intelligence artificielle. Les avancées dans ce domaine sont très rapides, passionnantes et bouleversent notre façon de travailler. Il est important de se tenir au courant et j'espère arriver à vous passionner avec ces cours et ces tutos :)
Le FLux Dev en fp16 c'est d'une lenteur absolue, pourtant j'ai une grosse config, 13900K, RTX 4090, 32Go DDR5 à 7000Mhz. je n'ai pas chronométré mais peut être 4 ou 5 minutes (sur un nouveau prompt, sinon la regénération pour le même prompt prend moins d'une minute) pour une image sur 20 steps. Est ce que je dois rajouter de la RAM car 32Go c'est la limite basse ? (ou rester en fp8 mais je cherche je suis plutôt dans une optique de qualité max)
Quand j'install ComfyUI sur Stability Matrix il me dit que je n'ai pas de pilote Nvidia et ne l'install pas. En effet j'ai un CPU et un GPU ADM sous windows. Quelqu'un a t il résolu ce problème sans avoir recours à des lignes de code ? En attendant je le fais tourner uniquement sur le CPU.
Hello ! merci pour la vidéo ! quelqu'un a aussi l'erreur "requires Accelerate: `pip install accelerate`" ? je ne trouve pas moyen de l'installer. des idées ?
excellent comme d'hab'. Mais comment as tu fais pour afficher ds la top bar Crystools? Impossible pour moi de l'afficher sur cette nouvelle interface comfy.... Merci
Merci pour la mise à jour. Je conseille aux traders, en particulier aux débutants, de faire des recherches sur le marché avant d'y entrer. Je dois dire que le trading est plus gratifiant que le simple fait de le posséder. Un grand merci à Daniel Randy qui me tient toujours au courant. Je suis tellement content d'avoir commencé son programme.
Je suis ravi d'avoir trouvé cette chaîne ! Je savais bien que j'avais déjà regardé l'une de tes vidéos il y a 2 ou 3 ans, c'était sur Firefly, l'IA de Photoshop. Je n'ai plus accès à mon ancien compte, et je pensais que c'était la même chaîne, mais je n'ai rien trouvé de similaire. C'est en lisant ta description que j'ai finalement retrouvé la chaîne que j'avais suivie à l'époque. À l'époque, je n'avais pas un PC très performant comparé à celui que j'ai maintenant. Désormais, je possède un Aorus 16x, et j'installe des logiciels d'IA en local. En ce moment, je me concentre sur ComfyUI et LivePortrait. J'ai un peu de mal à les télécharger via Pinokio, mais je cherche toujours des solutions. Je suis vraiment content que tu abordes tous ces logiciels. J'espère pouvoir apprendre davantage pour devenir encore plus créatif dans le montage photo et vidéo.
Merci pour cette vidéo super bien expliquée. Je pense que la solution est prise à l'envers. Au lieu de faire une incrustation d'un visage dans une image générée depuis un prompt, ne serait ce pas plus simple de générer une image à partir d'un prompt autour d'un visage ? Est-ce possible au moins ???
L'ajout de ce Nodes a fait planter mon ConfyUI lorsque je le lance avec "run_nvidia_gpu.bat" (ca fonctionne toujours avec "run_cpu.bat"). J'ai l'erreur "AssertionError: Torch not compiled with CUDA enabled" Pourtant lorsque je vérifié tout semble ok. python -c "import torch; print(torch.rand(2,3).cuda())" tensor([[0.8478, 0.0207, 0.5418], [0.7374, 0.1501, 0.4578]], device='cuda:0') python -c "import torch; print(torch.cuda.device_count())" 1 Tous mes drivers sont à jours. Ma version Python est la 3.10.6 CUDA et VS Build Tools sont à jour Une idée sur le problème ?
Merci beaucoup pour tout ce cyce de vidéos sur AnimateDiff, je vais essayer de tout parcourir ; je bute sur la 1ére avec ce message de rejet : "KSampler range() arg 3 must not be zero" je ne vois pas où je peux intervenir et quoi faire? certainement une valeur à forcer dans une variable mais laquelle . et où?
J'ai tout désinstallé et réinstallé en suivant les instructions 1 par 1 et aprés le glisser du 1er workflow de la vidéo, je suis stoppé net par un message bien ROUGE: "Prompt outputs failed validation VAELoader: - Value not in list: vae_name: 'vae-ft-mse-840000-ema-pruned.safetensors' not in ['ae.safetensors', 'diffusion_pytorch_model.bin', 'diffusion_pytorch_model.safetensors', 'taesd', 'taesdxl', 'taesd3', 'taef1'] CheckpointLoaderSimple: - Value not in list: ckpt_name: 'cardosAnime_v20.safetensors' not in ['sd_xl_turbo_1.0_fp16.safetensors', 'turbovisionxlSuperFastXLBasedOnNew_tvxlV431Bakedvae.safetensors']" ??
si le message principal "ADE_AnimateDiffLoaderGen1 Le module de mouvement 'mm_sd_v14.ckpt' est destiné aux modèles SD1.5, mais le modèle fourni est de type SDXL." peut mieux auguiller la solution ..je dois sans doute changer de modéle sur un noeud mais quel noeud ?Et quel modèle? toute piste de solution sera bienvenue.
Bonjour J'ai effectué exactement les opérations pour remplir les dossiers model et Motion Lora, puis glisser sur l'interface ComfyUI et j'obtiens un méchant message en rouge, je vois pas quoi faire, c'est ça : "Échec de la validation des sorties d’invite VAELoader : - Valeur non dans la liste : vae_name : 'vae-ft-mse-840000-ema-pruned.safetensors' non incluse ['ae.safetensors', 'diffusion_pytorch_model.bin', 'diffusion_pytorch_model.safetensors', 'taesd', 'taesdxl', 'taesd3', 'taef1']": si quelqu'un peut me donner la solution, ça serait vraiment cool
j'ai résolu ce probléme en paramétrant avec ae.softxxx le Load VAE, ça a tourné jusqu'à 8% puis...: # ComfyUI Error Report ## Error Details - **Node Type:** ADE_AnimateDiffLoaderGen1 - **Exception Type:** ComfyUI-AnimateDiff-Evolved.animatediff.utils_motion.MotionCompatibilityError - **Exception Message:** Motion module 'mm_sd_v14.ckpt' is intended for SD1.5 models, but the provided model is type SDXL. ## Stack Trace ``` File "D:\PINOKIO2\ComfyUI_windows_portable\ComfyUI\execution.py", line 317, in execute output_data, output_ui, has_subgraph = get_output_data(obj, input_data_all, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\PINOKIO2\ComfyUI_windows_portable\ComfyUI\execution.py", line 192, in get_output_data return_values = _map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\PINOKIO2\ComfyUI_windows_portable\ComfyUI\execution.py", line 169, in _map_node_over_list process_inputs(input_dict, i) File "D:\PINOKIO2\ComfyUI_windows_portable\ComfyUI\execution.py", line 158, in process_inputs results.append(getattr(obj, func)(**inputs)) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\PINOKIO2\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-AnimateDiff-Evolved\animatediff odes_gen1.py", line 57, in load_mm_and_inject_params validate_model_compatibility_gen2(model=model, motion_model=motion_model)
Merci pour tes tutos, tu es franchement le plus claire, propre, constant et surtout tu détails tout. NE CHANGE RIEN. Tu es au top ! Je viens de lancer un upscale avec ma 1080 en non lightning, je pleure tellement c'est lent. Je testerai le lightning plus tard. (fais c.... de pas avoir de rond pour upgrade). Note : Tu as zappé de montrer les liens pour l'upscale au lieu du resize image.
ça me rend fou à chaque fois que je fais un tuto tout le monde est dans l'allégresse mais ça marche pas chez moi. Si quelqu'un a aussi ce problème: j'ai que des images qui n'ont pas de rapport les unes avec les autres, juste une succession de rendus.
Il y a pas mal de choses qui peuvent faire ça. En premier vérifier que tout est à jour puis que le noeud Use Evolved sampling est bien connecté au model puis relier au Ksampler
J'ai beau suivre tous les tutoriel, j'ai toujours un message rouge vers la fin du processus, l'image s'affiche, mais floue et message rouge. Je désespère mdr sinon tous le reste fonctionne
Merci pour la vidéo! J'ai eu l'occasion de tester le modèle via le huggingface Space à sa sortie, les résultats étaient très intéressants! Vive l'Open Source! 💗
Bonjour Emmanuel, merci pour tes vidéos toujours aussi claires et en français… J'utilise SwamUI depuis hier et je suis content de découvrir une interface simple pour ComfyUI pour faire tourner des modeles Flux... Cependant j'ai souvent des messages d'erreurs de models qui ne se charges pas ou de loras… Idem pour controlnet avec les nouveaux X-labs, ça ne marche pas… De plus quand ça fonctionne je trouve que swam est beaucoup plus lent que forge par exemple avec ce model "SpeedFP8_e5m2" je fait une image en 26sec environs contre 90 sec avec swam… N'étant pas un habitué de ComfyUI, je voulais savoir si tu pouvais faire une vidéos spécifique (Flux, swam, comfy) pour placer correctement tous les models, loras et controlnet car j'ai bien indiqué le chemin dans le serveur, mais certain model de base comme "Flux1-dev" ne fonctionne pas du tout, ni même dans forge d'ailleur… Ce que je veux dire, c'est qu'il y a beaucoup de dossiers (models etc...) en double entre swam et comfy et donc je ne sais pas quoi mettre où… j'ai essayé les 2 mais "Flux1-dev" ne rien savoir Merci
Alors c'est très bien mais bonjour le dowscale effectué sur le visage. Ce noeud est complètement inutilisable sur des visages déjà upscalés, il faut l'intégrer obligatoirement AVANT upscale sinon la qualité en prend un méchant coup. C'est du au modèle qui est au format 512*512.
encore une fois merci pour cette excellente video; avec ma station 2 écrans côte à côte le passage de la théorie à la pratique est vraiment fluide.J'ai une question pour savoir comment tu as paramétré Manager pour avoir cette partie en haut à droite, qui parait surtout intéressante pour voir la dépense CPU et la dépense GPU, RAM, VRAM car ça répondra peut etre à des doutes que j'ai à savoir si c'est ma CPU ou ma GPU qui travaille le+; en effet avec une carte graphique Nvida de 8 G0 VRAM (ok pas fou mais une mémoire de 64 Go), je trouve que ça rame un peu et je saurais comme ça en direct si c'est la CPU ou la GPU qui est le+sollicité!
Bonjour, merci à vous :) Concernant l'interface depuis la récente mise à jour de Comfyui on peut mettre la barre de menu en haut ou sur les coté. Les indications d'utilisation de la mémoire et du GPU est apporté par Crystools (github.com/crystian/ComfyUI-Crystools)
remarque pour le workflow Basic_Simple_expression ça fonctionnait correctement mais pour les autres, j'avais une erreur " following node types were not found: VHS_LoadVideo VHS_VideoCombine" Il faut installer la custom node ComfyUI-VideoHelperSuite et ça corrige le problème
salut, super video! J'ai 2 petites questions - ma question c'est peut-on executer comfyUI en ligne ? (je n'ai pas de GPU sous la main) - peut on 'sortir' un code de comfyUI pour eventuellement l'executer sur collab ou un server avec GPU ? - On utilise se Flux 'tel quel' avec les poids du model fourni, ou doit-on le ré-entrainer sur nos cas d'utilisation (paysage, cartoon etc etc etc ) pour le style surtout ! merci! Je peur trouver les reponse en ligne mais juste pour profiter de votre expertise, merci!
Bonjour, Oui on peut faire tourner Comfyui en ligne par exemple ici : www.runcomfy.com/comfyui-web rundiffusion.com/comfyui-workflows Les workflows peuvent effectivement facilement s'exporter au format .json ou .png Flux peut s'utilise tel quel car il contient enormement de paramètres mais si l'on souhaite un style particulier ou un personne récurent on peut entrainer un Lora. Cela peut aussi se faire en ligne. Par exemple ici : replicate.com/blog/fine-tune-flux
Merci pour la vidéo ! Personnellement j'ai un petit problème, je remarque que l'output donne une image globale un peu plus sombre que l'originale et je ne comprends pas du tout pourquoi 🥲 Tu as une idée s'il te plaît ? J'utilise le modèle Dev, avec le module InpaintModelConditioning, et j'applique un Lora.