Спасибо большое!!!! Неделю разбираюсь почему не работает IP-Adapter!!! Не кто из "великих умов" на ютубе не сказал что нужно переименовать расширение из "bin" в "pth"!!!!!!!!!!!! И в инструкции по установке, на хагинфейс, я этого тоже не заметил!!!!! Чуть комп не разбил, 100 раз все снес и переустановил!!!! А тут такое простое решение, и все заработало!!!!!!!!! СПАСИБО!!!!!!
Мне нравится что ты рассказываешь с точки зрения дизайнера, как легко применить нейросети в реальных повседневных проектах, когда времени в обрез и нужен 100% быстрый, предсказуемый и адаптивный результат. Спасибо)
Это что-то невероятное! Те редкие моменты, когда ютуб рекомендует бесценные вещи, применимые в повседневке...Оч крутая штука, уже вовсю играюсь с параметрами) Сразу же лайк, подписка, просмотры 🤩
Я бы немного поправил. 1. Не появляется "желанный IP-Adapter" он там и так есть после установки ControlNet, а появляются дополнительные модели IP-Adapter. 2. Я например в версии AUTOMATIC1111 ничего не переименовывал в ".pth" закидывал в ".bin" и всё принимает 3. На день 08-01-2024 при скачивании моделей IP-Adapter, они есть и в ".bin" и в ".safetensors" У меня принимает в обоих видах. Переименовывать не пришлось. И ещё вопрос: Для кого эти видео, что так спешите быстро рассказать?
спасибо ,скрольте медленней плиз не все настройки при такой скорости видны ,даже стоп кадр не помогает-) просто не всегда вроде бы явные настройки возможно подобрать самому,что-бы добиться такого-же результата ,слишком много настроек не явных
Большущее спасибо тебе за демонстрацию и усердный монтаж с подрезкой всех пауз и воды. Сам монтирую, знаю, насколько это запара. Под конец ты забыл отключить Depth, возможно это портило результат. Вообще автогенерация карты глубины препроцессором работает довольно слабо, особенно на генеративных картинках или рисованных с условным светом. Я смотрел результаты в 3д. Это скорее похоже на сегментирование плашек по глубине сцены. То есть хорошо для плановости и подсказки, но плохо для построения света/формы Вот для стилизации крупных объектов с контурами или картой глубины реально хорошо работает. Правда я пересел на Comfy UI, но разберусь.
Наконец кто-то оценил обрезку пауз! 🙏 Насчет Depth, если стремиться к идеалу, то да. согласен. Но в отличие от Open Pose он нравится тем, что может дать какие-то интересные творческие результаты, или можно с фоном играть, быстро редактируя инпут в фотошопе и загружая его заново в ControlNet.
Ооочень быстрый скролл, очень трудно засечь все настройки. На примере с встраиванием логотипа в бг с большими трудами на стопкадрах выставил все настройки, в итоге при генерации выдает TypeError: 'NoneType' object is not subscriptable (((
Очень интересно. Можно более подробно касательно установки всего необходимого. Вроде все сделал как у тебя но не хватает вкладок в controlnet/ есть только controlnet unit 0. controlnet unit (IP-Adapter) нету , при generate при любом раскладе выдает какие то ошибки. Сделай пожалуйста все с нуля , всю последовательность , я думаю не один такой нуб который будет тебе благодарен.
И это собственно причина, почему Адоб сейчас нагоняет суету по запрету инструментов переноса стиля) Но, конечно, не для своего файрфлай, ведь у них православно, а остальным нельзя)
Мир нейросеток становится все больше похож на продуктовый магазин) технологии всем доступные, но чтобы потребитель "брал" твой товар надо развивать и доказывать экспертизу в одном направлении. Макароны покупаем у одного производителя, а молоко у другого.
При использовании Canny и IP Adapter на 6:16 при генерации выскакивает ошибка TypeError: 'NoneType' object is not subscriptable - как бороться? Повторное нажатие на Generate мне не помогло.
у меня почему-то не работает ip adapter, Error running process: D:\Stable-diffusion\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\controlnet.py пишет это, может кто знает. Очень грустно терять такую функцию
к сожалению, зависит видимо от чекпойнтов: некоторые вообще нисколько не подхватывают стиль, а смешивают картинки с КН ... В ряде случаев промт приходится прописывать. Также нередко приходится снижать вес воздействия модели. Но за обзор огромное спасибо! вы мне дали новое знание наглядно, побудили к практике! Нужно ли скачивать все 4 модели адаптера (в т.ч. лайт) или достаточно лишь плюсовые? я поставил только плюсовые (фейс и не фейсовую)
Конечно есть нюансы) Но как только Adapter "цепляет" то, что тебе нужно, дальше уже дело техники. Гораздо меньше рандома и энтропии получается. Модель Light вообще не использовал, остальные в разных ситуациях хорошо себя показывают.
Очень показательно: те, кто продает курсы по рисованию и дизайну "от руки", говорят, что нейросети не заменят вас на работе, а те, кто продает курсы по нейросетям, говорят, что заменят.)
делаю все по инструкции, но в момент когда надо сделать одну картинку в depth а другую в ip adapter - ничего не работает(( в модели depth пусто, препроцессор depth_midas, а в модели только ip adapter, хотя у вас в видео стоит тоже какой-то depth. что делать в этой ситуации?
Спасибо, это самое то, что мне надо! Осталось только установить SD...буду признателен, если подскажете...у меня ноут оперативка 16 гб ssd 512 гб видеокарта nvidia...я могу только Portable SD поставить или у Христа в первом видео другой SD какой лучше у меня пойдёт?
Здравствуйте! В имг имг в вашей версии отображается изображение у контрол нета. В версии которой я работаю, изображения контрол нета не отображаются в инпайнте и имг имг, как вы думаете это связано с версией или есть какие то настройки контрол нета?
Хм. Спасибо за мануал. Возможно, что-то не так делаю, но у меня никак не получается, чтобы у генерируемого изображения было прям лицо с указанного фото. Т.е. он рисует всегда рандомного человека, а не конкретного с фото в нужном антураже. Что я могу делать не так?
Главная проблема этого видео, что ведущий очень медленно водит мышкой по экрану и нажимает всякие функции и опции, если делать это как минимум в 10 раз быстрее, а лучше всего в 100 раз, то это значительно улучшило бы восприятие материала...
Привет! Очень здорово выходит! Я, как новичок в этой области, хотел бы к началу всего этого! Если есть у Вас на канале плэйлист или видео для новичков, был очень благодарен за ссылку к нему! А первое: Я работаю на MacOS и у меня Видеокарта - AMD Radeon Pro W5500 8 GB - можно с ней работать? Спасибо! ... А от меня уже подписка и лайк для хорошего начала))
Здравствуйте, спасибо за отзыв! Скоро будем выпускать пошаговые ролики для начинающих как раз. Насчет карточки - лучше конечно Nvidia, стейбл изначально адаптирован под Cuda ядра
Как установить ip adapte? Только скачать 4 модели и все или, что-то еще нужно сделать? Потому как выдает все время ошибку p.s. В-общем установил все с нуля и все заработало! Спасибо за видео.
Спасибо за видео. Может я что-то туплю... а можно как-то оставить лицо как есть на фото оригинала и к нему применить ip-adapter, чтобы просто визуал передался. Без использовании lora или roop. С depth не сохраняется лицо, можно конечно расширение roop включить и вставать тоже фото, что и в depth, но получается все равно не всегда норм и идеально.
Установил точно также, но в списке моделей нет canny, depth и остальных. Т.е. если ставлю препроцессор Canny, то и модель должна быть соответственно Canny, не? На видео именно так, но в списке моделей их нет. Их нужно отдельно устанавливать?
@@itsalive.studio у меня почему-то не так. Установил, скачал те модели по ссылке, перезапустил, плагин работает, но только с ip-adapter plus face, просто plus, light и ещё одна модель (буквы не помню, их 3). Нашёл версию ControlNet 1.1 на huggingface, есть там все эти модели, сейчас скачаю, попробую запустить.
Выдаёт ошибку raise [ControlNet Error] Cannot recognize the ControlModel!' TypeError: exceptions must derive from BaseException.... ищу решение. Если кто знает, как пофиксить, подскажите.
Расскажи пожалуйста, как дела обстоят на Маке? Можно ли запустить SD не через DiffusionBee. И можно ли через DiffusionBee подключить ip-adapter? или без винды все же никуда? )
Это Просто Охуенно Спасибо за это видео. И фича классная, очень расширяет горизонты возможностей, и видео информативное. Хз, узнал бы я об этом, если бы не ты и реки Ютуба) Поставил лайк.
Подскажите пожалуйста, почему ip adapter перестал работать? Установил по видео, все работало. Через день при включении адаптера и размещении в нем картинки референса он начал ее игнорить, будто бы адаптер был выключен.
Спасибо за туториал еще раз - но не удается все организовать через колаб. Вроде бы контролнет есть, а вот айпи никак установить не выходит. Подскажи, может знаешь решение?
А в чем преимущество перед модулем ControlNet Reference? По моим наблюдениям, Reference лучше работает - выдает более консистентный результат, более близкий к референсу. Но, правда, я пробовал IP адаптер на модели SD1.5, не на фотоне.
У меня кардинально противоположная картина, референс только чуть чуть ухватывает стиль, и то, только с тем же промтом. И да, лучше сравнивать на кастомных чекпоинтах.