Тёмный
AiAndPixels
AiAndPixels
AiAndPixels
Подписаться
Bonjour,
Bienvenue sur la chaine AiAndPixels.
Ici je vais vous parler d'images générées par des algorithmes basés sur de l'intelligence artificielle.
Les avancées dans ce domaine sont très rapides, passionnantes et bouleversent notre façon de travailler.
Il est important de se tenir au courant et j'espère arriver à vous passionner avec ces cours et ces tutos :)

#midjourney #dalle #stablediffusion #stable_diffusion #ai #aiartgenerator #aiart #photoshop #photoshoptutorial #automatic1111 #stablediffusionai #emmanuelcorreia #automatic1111 #invokeai

Ma chaine principale :
ru-vid.com
Que vaut CogVideoX dans Comfyui ?
8:55
12 часов назад
Que vaut AuraFlow V0.2 ?
4:59
21 день назад
Découvrez ToonCrafter dans Comfyui !!
9:39
3 месяца назад
Комментарии
@jeremietoussaint4085
@jeremietoussaint4085 10 часов назад
Le FLux Dev en fp16 c'est d'une lenteur absolue, pourtant j'ai une grosse config, 13900K, RTX 4090, 32Go DDR5 à 7000Mhz. je n'ai pas chronométré mais peut être 4 ou 5 minutes (sur un nouveau prompt, sinon la regénération pour le même prompt prend moins d'une minute) pour une image sur 20 steps. Est ce que je dois rajouter de la RAM car 32Go c'est la limite basse ? (ou rester en fp8 mais je cherche je suis plutôt dans une optique de qualité max)
@kirthgersen291
@kirthgersen291 12 часов назад
Quand j'install ComfyUI sur Stability Matrix il me dit que je n'ai pas de pilote Nvidia et ne l'install pas. En effet j'ai un CPU et un GPU ADM sous windows. Quelqu'un a t il résolu ce problème sans avoir recours à des lignes de code ? En attendant je le fais tourner uniquement sur le CPU.
@VArlaud
@VArlaud 13 часов назад
Absolument génial, merci :)
@alexandretamisier8150
@alexandretamisier8150 15 часов назад
Hello ! merci pour la vidéo ! quelqu'un a aussi l'erreur "requires Accelerate: `pip install accelerate`" ? je ne trouve pas moyen de l'installer. des idées ?
@photographie
@photographie 17 часов назад
excellent comme d'hab'. Mais comment as tu fais pour afficher ds la top bar Crystools? Impossible pour moi de l'afficher sur cette nouvelle interface comfy.... Merci
@jeremietoussaint4085
@jeremietoussaint4085 8 часов назад
Même question pour moi
@ezecha
@ezecha 20 часов назад
Merci pour la mise à jour. Je conseille aux traders, en particulier aux débutants, de faire des recherches sur le marché avant d'y entrer. Je dois dire que le trading est plus gratifiant que le simple fait de le posséder. Un grand merci à Daniel Randy qui me tient toujours au courant. Je suis tellement content d'avoir commencé son programme.
@shakilsarder692
@shakilsarder692 20 часов назад
C'est intéressant. J'ai beaucoup entendu parler de la même personne il n'y a pas longtemps, s'il vous plaît, comment dois-je commencer ?
@ezecha
@ezecha 20 часов назад
IL EST SUR TE L E G R AM
@ezecha
@ezecha 20 часов назад
@DanielRtrader
@ezecha
@ezecha 20 часов назад
@DanielRtrader✊✊
@ezecha
@ezecha 20 часов назад
N'écrivez rien d'autre que ce nom d'utilisateur, faites attention aux arnaqueurs qui prétendent être comme lui
@youcefhaddad8625
@youcefhaddad8625 День назад
super merci beaucoup la vidéo
@sb6934
@sb6934 День назад
Merci
@aiandpixels
@aiandpixels 19 часов назад
Avec plaisir :)
@EGOMonteurPRO
@EGOMonteurPRO День назад
Je suis ravi d'avoir trouvé cette chaîne ! Je savais bien que j'avais déjà regardé l'une de tes vidéos il y a 2 ou 3 ans, c'était sur Firefly, l'IA de Photoshop. Je n'ai plus accès à mon ancien compte, et je pensais que c'était la même chaîne, mais je n'ai rien trouvé de similaire. C'est en lisant ta description que j'ai finalement retrouvé la chaîne que j'avais suivie à l'époque. À l'époque, je n'avais pas un PC très performant comparé à celui que j'ai maintenant. Désormais, je possède un Aorus 16x, et j'installe des logiciels d'IA en local. En ce moment, je me concentre sur ComfyUI et LivePortrait. J'ai un peu de mal à les télécharger via Pinokio, mais je cherche toujours des solutions. Je suis vraiment content que tu abordes tous ces logiciels. J'espère pouvoir apprendre davantage pour devenir encore plus créatif dans le montage photo et vidéo.
@indidi5606
@indidi5606 День назад
Je ne sais pas si je dois te remercier, parce que j'ai beau à changer de paramètre comme tu l'as suggéré et le résultat est juste dégelasse.
@EvgenyCh-th8dc
@EvgenyCh-th8dc День назад
Free Durov!
@philippebourin3505
@philippebourin3505 День назад
I8ntéressant, merci. J'ai une question : comment afficher les bar de crystools dans le nouveau menu de Comfyui ? Je n'y arrive pas.
@aiandpixels
@aiandpixels День назад
Clique sur la roue crantée et dans la section menu tu peux choisir "top"
@philippebourin3505
@philippebourin3505 День назад
@@aiandpixels Merci, mais j'ai déjà fait ça, mais les barres de défilement de crystools ne s'affiche pas.
@aiandpixels
@aiandpixels День назад
@@philippebourin3505 est ce que tout est à jour ? Comfy et Crystools ?
@philippebourin3505
@philippebourin3505 16 часов назад
@@aiandpixels Oui, je le fait quasiment tout les jours
@ChrDNA
@ChrDNA День назад
Incroyable c'est vraiment ce que je cherchais
@aiandpixels
@aiandpixels День назад
ah ben cool :)
@SebastienBourges
@SebastienBourges День назад
Merci pour cette vidéo super bien expliquée. Je pense que la solution est prise à l'envers. Au lieu de faire une incrustation d'un visage dans une image générée depuis un prompt, ne serait ce pas plus simple de générer une image à partir d'un prompt autour d'un visage ? Est-ce possible au moins ???
@aiandpixels
@aiandpixels День назад
Oui c'est possible mais bon cela suppose avoir au préalable fait des images des visages dans pleins de situations
@SebastienBourges
@SebastienBourges 2 дня назад
L'ajout de ce Nodes a fait planter mon ConfyUI lorsque je le lance avec "run_nvidia_gpu.bat" (ca fonctionne toujours avec "run_cpu.bat"). J'ai l'erreur "AssertionError: Torch not compiled with CUDA enabled" Pourtant lorsque je vérifié tout semble ok. python -c "import torch; print(torch.rand(2,3).cuda())" tensor([[0.8478, 0.0207, 0.5418], [0.7374, 0.1501, 0.4578]], device='cuda:0') python -c "import torch; print(torch.cuda.device_count())" 1 Tous mes drivers sont à jours. Ma version Python est la 3.10.6 CUDA et VS Build Tools sont à jour Une idée sur le problème ?
@aiandpixels
@aiandpixels 2 дня назад
Combien de Vram ? et Est ce que Comfyui est à jour ?
@SebastienBourges
@SebastienBourges 2 дня назад
@@aiandpixels ComfyUI v1.2.7 et 12 Vram
@SebastienBourges
@SebastienBourges 2 дня назад
J'ai tout repris depuis le début mais depuis le début début avec un nouvel install de ComfyUI et ça a fonctionné. ;)
@baptm727
@baptm727 2 дня назад
Super, merci pour le tuto
@aiandpixels
@aiandpixels 2 дня назад
Merci !
@alexandreb.8350
@alexandreb.8350 2 дня назад
Merci beaucoup pour tout ce cyce de vidéos sur AnimateDiff, je vais essayer de tout parcourir ; je bute sur la 1ére avec ce message de rejet : "KSampler range() arg 3 must not be zero" je ne vois pas où je peux intervenir et quoi faire? certainement une valeur à forcer dans une variable mais laquelle . et où?
@aiandpixels
@aiandpixels 2 дня назад
Bonjour, peut-être que ça vient du nœud "empty latent image" il faut avoir au moins 16 pour "batch size"
@AlexandreIABEL
@AlexandreIABEL 3 дня назад
J'ai tout désinstallé et réinstallé en suivant les instructions 1 par 1 et aprés le glisser du 1er workflow de la vidéo, je suis stoppé net par un message bien ROUGE: "Prompt outputs failed validation VAELoader: - Value not in list: vae_name: 'vae-ft-mse-840000-ema-pruned.safetensors' not in ['ae.safetensors', 'diffusion_pytorch_model.bin', 'diffusion_pytorch_model.safetensors', 'taesd', 'taesdxl', 'taesd3', 'taef1'] CheckpointLoaderSimple: - Value not in list: ckpt_name: 'cardosAnime_v20.safetensors' not in ['sd_xl_turbo_1.0_fp16.safetensors', 'turbovisionxlSuperFastXLBasedOnNew_tvxlV431Bakedvae.safetensors']" ??
@aiandpixels
@aiandpixels 2 дня назад
Il faut charger un model SD1.5 dans le checkpoint il fut oublier SDXL avec AnimateDiff
@cedrigo
@cedrigo 3 дня назад
Super, merci!
@aiandpixels
@aiandpixels 2 дня назад
Avec plaisir 🙂
@AlexandreIABEL
@AlexandreIABEL 3 дня назад
si le message principal "ADE_AnimateDiffLoaderGen1 Le module de mouvement 'mm_sd_v14.ckpt' est destiné aux modèles SD1.5, mais le modèle fourni est de type SDXL." peut mieux auguiller la solution ..je dois sans doute changer de modéle sur un noeud mais quel noeud ?Et quel modèle? toute piste de solution sera bienvenue.
@aiandpixels
@aiandpixels 2 дня назад
Il faut dans ce cas charger un model SD1.5 dans le Checkpoint.
@AlexandreIABEL
@AlexandreIABEL 3 дня назад
Bonjour J'ai effectué exactement les opérations pour remplir les dossiers model et Motion Lora, puis glisser sur l'interface ComfyUI et j'obtiens un méchant message en rouge, je vois pas quoi faire, c'est ça : "Échec de la validation des sorties d’invite VAELoader : - Valeur non dans la liste : vae_name : 'vae-ft-mse-840000-ema-pruned.safetensors' non incluse ['ae.safetensors', 'diffusion_pytorch_model.bin', 'diffusion_pytorch_model.safetensors', 'taesd', 'taesdxl', 'taesd3', 'taef1']": si quelqu'un peut me donner la solution, ça serait vraiment cool
@AlexandreIABEL
@AlexandreIABEL 3 дня назад
j'ai résolu ce probléme en paramétrant avec ae.softxxx le Load VAE, ça a tourné jusqu'à 8% puis...: # ComfyUI Error Report ## Error Details - **Node Type:** ADE_AnimateDiffLoaderGen1 - **Exception Type:** ComfyUI-AnimateDiff-Evolved.animatediff.utils_motion.MotionCompatibilityError - **Exception Message:** Motion module 'mm_sd_v14.ckpt' is intended for SD1.5 models, but the provided model is type SDXL. ## Stack Trace ``` File "D:\PINOKIO2\ComfyUI_windows_portable\ComfyUI\execution.py", line 317, in execute output_data, output_ui, has_subgraph = get_output_data(obj, input_data_all, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\PINOKIO2\ComfyUI_windows_portable\ComfyUI\execution.py", line 192, in get_output_data return_values = _map_node_over_list(obj, input_data_all, obj.FUNCTION, allow_interrupt=True, execution_block_cb=execution_block_cb, pre_execute_cb=pre_execute_cb) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\PINOKIO2\ComfyUI_windows_portable\ComfyUI\execution.py", line 169, in _map_node_over_list process_inputs(input_dict, i) File "D:\PINOKIO2\ComfyUI_windows_portable\ComfyUI\execution.py", line 158, in process_inputs results.append(getattr(obj, func)(**inputs)) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "D:\PINOKIO2\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-AnimateDiff-Evolved\animatediff odes_gen1.py", line 57, in load_mm_and_inject_params validate_model_compatibility_gen2(model=model, motion_model=motion_model)
@PatriceFERLET
@PatriceFERLET 3 дня назад
J'aime beaucoup tes vidéos mais il faut que je fasse mon lourdingue... C'est "un" VAE (un auto encodeur variant, pour variational auto encoder)
@aiandpixels
@aiandpixels 3 дня назад
Oui c'est bien ça, je ne sais pas pourquoi le féminin colle bien :)
@PatriceFERLET
@PatriceFERLET 3 дня назад
@@aiandpixels parce que ça fini par un "e" 😜 Ou alors simplement parce qu'une VAE c'est aussi une "validation d'acquis en entreprise"...
@aiandpixels
@aiandpixels 2 дня назад
@@PatriceFERLET ah ouais bien vu pour la "validation" :)
@arsworld
@arsworld 4 дня назад
Merci pour tes tutos, tu es franchement le plus claire, propre, constant et surtout tu détails tout. NE CHANGE RIEN. Tu es au top ! Je viens de lancer un upscale avec ma 1080 en non lightning, je pleure tellement c'est lent. Je testerai le lightning plus tard. (fais c.... de pas avoir de rond pour upgrade). Note : Tu as zappé de montrer les liens pour l'upscale au lieu du resize image.
@aiandpixels
@aiandpixels 3 дня назад
Merci ! Oui c'est hyper lent Supir. ah zut désolé pour le zap
@Vlad_EriK
@Vlad_EriK 4 дня назад
les fichiers 2B d'exemple ont été remplacé par 5B Rename cogvideo_2b_temporal_tiling_long_01.json to cogvideo_5b_tempor…
@indidi5606
@indidi5606 5 дней назад
C'est dégelasse tu veux dire, vivement des plus gros models.
@aiandpixels
@aiandpixels 4 дня назад
Parfois c'est dégelasse, parfois c'est pas mal
@decanecaudeoscar6961
@decanecaudeoscar6961 5 дней назад
ça me rend fou à chaque fois que je fais un tuto tout le monde est dans l'allégresse mais ça marche pas chez moi. Si quelqu'un a aussi ce problème: j'ai que des images qui n'ont pas de rapport les unes avec les autres, juste une succession de rendus.
@aiandpixels
@aiandpixels 4 дня назад
Il y a pas mal de choses qui peuvent faire ça. En premier vérifier que tout est à jour puis que le noeud Use Evolved sampling est bien connecté au model puis relier au Ksampler
@decanecaudeoscar6961
@decanecaudeoscar6961 4 дня назад
@@aiandpixels Merci incroyable, c'était animate diff qui était pas à jour entre autre, ça m'apprendra à travailler bourré!
@LaProcrastinance
@LaProcrastinance 5 дней назад
J'ai beau suivre tous les tutoriel, j'ai toujours un message rouge vers la fin du processus, l'image s'affiche, mais floue et message rouge. Je désespère mdr sinon tous le reste fonctionne
@happycollapse6348
@happycollapse6348 5 дней назад
Merci pour la vidéo, c'est intéressant. J'ai une erreur OOM avec le modèle 5b sur RTX4070 12Go de vram. C'est normal ? L'autre fonctionne.
@bause6182
@bause6182 5 дней назад
Un model interessant à suivre , ce serait interessant d'essayer de le scale ou le fine tuner
@cles_music
@cles_music 5 дней назад
Merci pour la vidéo! J'ai eu l'occasion de tester le modèle via le huggingface Space à sa sortie, les résultats étaient très intéressants! Vive l'Open Source! 💗
@marcdubois8184
@marcdubois8184 5 дней назад
Bonjour Emmanuel, merci pour tes vidéos toujours aussi claires et en français… J'utilise SwamUI depuis hier et je suis content de découvrir une interface simple pour ComfyUI pour faire tourner des modeles Flux... Cependant j'ai souvent des messages d'erreurs de models qui ne se charges pas ou de loras… Idem pour controlnet avec les nouveaux X-labs, ça ne marche pas… De plus quand ça fonctionne je trouve que swam est beaucoup plus lent que forge par exemple avec ce model "SpeedFP8_e5m2" je fait une image en 26sec environs contre 90 sec avec swam… N'étant pas un habitué de ComfyUI, je voulais savoir si tu pouvais faire une vidéos spécifique (Flux, swam, comfy) pour placer correctement tous les models, loras et controlnet car j'ai bien indiqué le chemin dans le serveur, mais certain model de base comme "Flux1-dev" ne fonctionne pas du tout, ni même dans forge d'ailleur… Ce que je veux dire, c'est qu'il y a beaucoup de dossiers (models etc...) en double entre swam et comfy et donc je ne sais pas quoi mettre où… j'ai essayé les 2 mais "Flux1-dev" ne rien savoir Merci
@juliab1991
@juliab1991 6 дней назад
Bonjour, quel logiciel utilisez-vous pour incruster le médaillon de vous qui parlez sur le reste de votre vidéo tutoriel ? Merci beaucoup
@aiandpixels
@aiandpixels 5 дней назад
Bonjour, j'utilise Adobe Premiere Pro
@takotacful
@takotacful 7 дней назад
Chatgpt ne réfléchi pas, il calcul.😉😄
@aiandpixels
@aiandpixels 5 дней назад
Bonjour, peut-être une réponse ici : github.com/OpenGVLab/InternGPT/issues/36
@lockos
@lockos 7 дней назад
Alors c'est très bien mais bonjour le dowscale effectué sur le visage. Ce noeud est complètement inutilisable sur des visages déjà upscalés, il faut l'intégrer obligatoirement AVANT upscale sinon la qualité en prend un méchant coup. C'est du au modèle qui est au format 512*512.
@nicolasmolines9871
@nicolasmolines9871 7 дней назад
Bonjour , est ce que cela permet aussi de faire des vidéos ?
@aiandpixels
@aiandpixels 5 дней назад
Sans doute, si on utilise les nœuds qui permettent de le faire.
@alexandreb.8350
@alexandreb.8350 8 дней назад
encore une fois merci pour cette excellente video; avec ma station 2 écrans côte à côte le passage de la théorie à la pratique est vraiment fluide.J'ai une question pour savoir comment tu as paramétré Manager pour avoir cette partie en haut à droite, qui parait surtout intéressante pour voir la dépense CPU et la dépense GPU, RAM, VRAM car ça répondra peut etre à des doutes que j'ai à savoir si c'est ma CPU ou ma GPU qui travaille le+; en effet avec une carte graphique Nvida de 8 G0 VRAM (ok pas fou mais une mémoire de 64 Go), je trouve que ça rame un peu et je saurais comme ça en direct si c'est la CPU ou la GPU qui est le+sollicité!
@aiandpixels
@aiandpixels 5 дней назад
Bonjour, merci à vous :) Concernant l'interface depuis la récente mise à jour de Comfyui on peut mettre la barre de menu en haut ou sur les coté. Les indications d'utilisation de la mémoire et du GPU est apporté par Crystools (github.com/crystian/ComfyUI-Crystools)
@valadie_immobillier
@valadie_immobillier 8 дней назад
Toujours super, clair et précis 👌🏼
@aiandpixels
@aiandpixels 5 дней назад
Merci 🙌
@philippeheritier9364
@philippeheritier9364 8 дней назад
Très bien expliqué et très intéressant merci
@aiandpixels
@aiandpixels 5 дней назад
Merci à vous :)
@TheAcidPrank
@TheAcidPrank 8 дней назад
remarque pour le workflow Basic_Simple_expression ça fonctionnait correctement mais pour les autres, j'avais une erreur " following node types were not found: VHS_LoadVideo VHS_VideoCombine" Il faut installer la custom node ComfyUI-VideoHelperSuite et ça corrige le problème
@aiandpixels
@aiandpixels 8 дней назад
Absolument :)
@orion4d727
@orion4d727 8 дней назад
Génial
@aiandpixels
@aiandpixels 5 дней назад
Merci 🙌
@MGKday
@MGKday 8 дней назад
bonjour, où peut on trouver les workflow stp ? merci pour cette video !
@aiandpixels
@aiandpixels 8 дней назад
Bonjour, dans le dossier sample
@GenIArt-fr
@GenIArt-fr 9 дней назад
excellent, la qualité est top!
@aiandpixels
@aiandpixels 5 дней назад
Un grand merci !
@MrToandry
@MrToandry 9 дней назад
Excellent, merci de mettre en avant les nouveautés !
@aiandpixels
@aiandpixels 8 дней назад
Avec plaisir 😁
@nathanaelautret7086
@nathanaelautret7086 9 дней назад
Merci pour le partage, un outil qui pourra vraiment être utile pour des projets de BD !!!
@aiandpixels
@aiandpixels 8 дней назад
Avec plaisir :)
@sb6934
@sb6934 9 дней назад
Merci
@aiandpixels
@aiandpixels 5 дней назад
Avec plaisir :)
@felixbarc4302
@felixbarc4302 9 дней назад
Selon tous les testes oui et en plus c'est gratos ! Et installable en local sur sa machine ! Mais que demande le peuple ?
@aiandpixels
@aiandpixels 8 дней назад
IP Adapter :)
@blumenfeld1234
@blumenfeld1234 9 дней назад
hello! question : c'est quoi l'interface que tu as avec la barre de menu en haut dans Comfyui ? grand merci !
@aiandpixels
@aiandpixels 8 дней назад
Hello, c'est Comfyui Manager associé à la mise à jour de Comfyui.
@vj-baker-88
@vj-baker-88 9 дней назад
Sais-tu si ipadapter et animatediff sont compatibles avec Flux ou bien il faut attendre leurs adaptions ? Merci pour tes tutos.
@aiandpixels
@aiandpixels 8 дней назад
Animatediff non, il y a bien un Ip_Adapter qui est sorti pour Flux mais qui n'est pas super pour le moment: huggingface.co/XLabs-AI/flux-ip-adapter
@vj-baker-88
@vj-baker-88 8 дней назад
@@aiandpixels merci pour ta réponse
@Nafisatou99
@Nafisatou99 9 дней назад
salut, super video! J'ai 2 petites questions - ma question c'est peut-on executer comfyUI en ligne ? (je n'ai pas de GPU sous la main) - peut on 'sortir' un code de comfyUI pour eventuellement l'executer sur collab ou un server avec GPU ? - On utilise se Flux 'tel quel' avec les poids du model fourni, ou doit-on le ré-entrainer sur nos cas d'utilisation (paysage, cartoon etc etc etc ) pour le style surtout ! merci! Je peur trouver les reponse en ligne mais juste pour profiter de votre expertise, merci!
@aiandpixels
@aiandpixels 8 дней назад
Bonjour, Oui on peut faire tourner Comfyui en ligne par exemple ici : www.runcomfy.com/comfyui-web rundiffusion.com/comfyui-workflows Les workflows peuvent effectivement facilement s'exporter au format .json ou .png Flux peut s'utilise tel quel car il contient enormement de paramètres mais si l'on souhaite un style particulier ou un personne récurent on peut entrainer un Lora. Cela peut aussi se faire en ligne. Par exemple ici : replicate.com/blog/fine-tune-flux
@Nafisatou99
@Nafisatou99 8 дней назад
@@aiandpixels merci beaucoup !
@Nafisatou99
@Nafisatou99 8 дней назад
@@aiandpixels merci je vais creuser j'ai tjs pas compris ce que c'est un LOra
@BloumEM
@BloumEM 9 дней назад
Merci pour la vidéo ! Personnellement j'ai un petit problème, je remarque que l'output donne une image globale un peu plus sombre que l'originale et je ne comprends pas du tout pourquoi 🥲 Tu as une idée s'il te plaît ? J'utilise le modèle Dev, avec le module InpaintModelConditioning, et j'applique un Lora.
@aiandpixels
@aiandpixels 5 дней назад
Bonjour, as tu essayé sans le Lora ?