English version: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-jCE1Dx_Q924.html Итоги массового теста: 1. Ассеты работают только на Houdini 19.5. Я немного переоценил совместимость. 2. С Линуксом тулсет заработал. Пишите Issue, если выдаёт ошибки. 3. Самые частые ошибки связаны с тем, что нет флага --api или запуск идет с неправильного bat-файла. Я на гитхабе создал Wiki, в которой перечислил основные ошибки, если что-то не работает, смотрите там. Если и там нет, создавайте Issue на гитхабе.
Как же ты меня впечатляешь! Другие бы вгрызлись зубами в эту разработку, нарисовали инфоцыганский курс за 100500 тысяч, а тут принципы "всё хорошее должно быть отдано людям". Бесконечное уважение, Стас!
МУЖИК ТЫ ВЕЛИКОЛЕПЕН!!! Я ИСКАЛ ИМЕННО ТАКОЙ РАЗВЁРНУТЫЙ УРОК, ДА ЕЩЁ И НА РУССКОМ. ОБЯЗАТЕЛЬНО ПОВТОРЮ ВСЁ ЧТО ТЫ ЗДЕСЬ ПОКАЗАЛ. СПАКСИБО ТЕБЕ ОГРОМНЕЙШЕЕ ЗА ЭТО ВИДЕО!!!!!!!!!!!
Бесконечная благодарность за весь контент на канале. Это же просто клад знаний с великолепной подачей. Жалко что нет больше стримов и новые видео выходят редко. Человек делится своим огромным опытом безвозмездно, сейчас такое редко встретишь. Сомневаюсь что монетизация на ютуб возмещала потраченное время на создание такого охренительного контента, а сейчас и подавно=(. Спасибо вам огромное.
Я настроил Automatic1111 через прокси-сервер nginx на удаленном сервере (добавил авторизацию через auth_basic). Как подключить http-авторизацию к Houdini ?
Такой вопрос - у вас есть демонстрационное видео в котором я так понял вы настраиваете позу для 3D модели и тут же с нее делаете рисунок для SD, не совсем разобрался как это осуществить на практике - если возможно, поясните как это можно осуществить
@@hipnc то есть если я правильно понял все равно нужно делать через дебс карту, а такого как на демонстрационном видео нет - чтобы сразу же поза подхватывалась SD?
Как говорится, не прошло и года))) Хотел спросить, как стать хорошим специалистом по работе в Houdini (в частности vfx), а не кнопконажимателем? Онлайн школам я не верю и на дух не переношу, а найти наставника из индустрии весьма сложно.
В онлайн образовании нет ничего плохого, просто нужно придирчиво выбирать курс или школу. Если там типичные инфоцыганские заманухи, типа за месяц сделаем спецом с зарплатой в сто тыщ, то можно пропускать. Если показывается, какие конкретные задачи ты будешь решать, а преподаватель умеет связывать слова в предложения, то почему нет? Ну и существуют курсы, которые по сути просто наборы структурированных видеоуроков, как наши "Частицы", "Процедурная анимация" и "Редшифт".
@@hipnc А можете подсказать пару школ пожалуйста, находил вроде нормальные но когда смотрел слитые уроки оказалось, что это просто много часовые стримы, процес обучения разбавлен затупами ментора и общения с чатом, или уроки в формате ролика, но ментор говорит медленно и без четкого сценария, буд то не знает что дальше сказать
Используется Cuda. Вообще, неофициально можно установить форк Автоматика для АМД, но я не проверял и не знаю, как он работает. github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-AMD-GPUs
Привет. Спасибо за урок, но пока не получается установить. Стейбл дифьюжн запускается, все ок, картинку выдает, но в гудини выдает такуюю ошибку: Traceback (most recent call last): File "Top/SD_Switch_Model, opdef:/Top/SD_Switch_Model?OnCreated, node /obj/topnet1/SD_Switch_Model1", line 1, in File "Top/SD_Switch_Model, PythonModule", line 11, in RefreshModels File "C:\PROGRA~1/SIDEEF~1/HOUDIN~1.569/houdini/python3.9libs\houpythonportion\Parm.py", line 83, in set raise TypeError( TypeError: Cannot set parameter value to unsupported type Файл батник изменил, строчку --api и тд добавил. В чем может быть проблема? Спасибо заранее!
Скачай сегодняшнюю версию, я пофиксил эту ошибку. Ошибка значила, что нет связи с Автоматиком. Возможные варианты: ключ --api, запуск с другого батника, Гудини заблочен в файрволе.
❤ я тут не сплю в 4 утра и просто с вытаращенными глазами в шоке от просмотренного видео. Очень крутая связка Гудини с Дифьюжн! Мир перевернулся🤯 только погрузился в нейросети и хочу всего и побольше…
Странно, в веб версии контролнет работает, в гудини все те же самые настройки, основная модель, препроцессора и модели, выдает Exception: ControlNet model control_v11p_sd15_openpose [cab727d4](StableDiffusionVersion.SD1x) is not compatible with sd model(StableDiffusionVersion.SDXL)
Апи подключил, версия 19.5, но почему то выдает ошибку на rop ноде Missing attribute '@pdg_output' when evaluating '/obj/topnet1/image_preview8/preview/file/filename1' [work_item=ropfetch2_8] .Не встречали такую ?
@@hipnc всё работает на 19.5 ! а можете поделится сценкой c интерьeром из вступления? плииииз:) руки чешутся потестить, а сам пока не до конца разобрался! Заранее благодарю! это фантастика!
Это просто боксы накиданные и depth-карта. Единственный нюанс, при создании сцены нужно дополнительно кинуть ноду Divide в режиме Bricker polygons, чтобы добавить точек на поверхности, потому что красятся именно точки.
@@hipnc понял вроде! буду пытаться:) это по аналогии с последним куском в видео? если будет минутка сделать такую сцену, буду жутко благодарен:) ну а пока погнал пробовать! Спасибо еще раз!
Стас,привет! что может быть, если не показывает в Composite View сгенерированную картинку. Хотя она есть в папке ../Generated. Именно в окне просмотра, в Гудини все черноеUPD.вопрос закрыт.Просто потыкал "переключение между картинками" в Image Preview node
@@hipnc Спасибо, Стас за ответ, и вообще за то, что ты делаешь. Ты просто перевернул мой мир вчера. Я не иронизирую.Я сам фанат Гудини, 13 лет уже и всё, что с ним связано--оченьтщательно стараюсь отслеживать. К нейронкам не подступался(так, Миджорней поковырял,Кандинский) и пока не сильно ощутил, насколько ето мне нужно. Но вчера, я наконец-таки поставил Stable Diffusion(давно лежит твой тутор в закладках, уже пол-года наверное) и понял, что зря я обходил ету тему стороной. Я как наркоман, не спал более суток, шерстил все, что связано со Stable Diffusion, и понял, что ето отвал жопы(извини за оборот). Уже сегодня нагенерил аишных домиков для Лас Вегаса 60-х годов. Еше раз низкий поклон!
Божечки. Это великолепно! Влетаю с ноги!!! А то 4090 девать некуда, стоит без движений. Я уже почти готов влезть с головой в гундю, но так лень. Меня там уже почти ничего не пугает, но вглубь лезть - ну просто жуть как лениво.
Спасибо за ассет! но столкнулся с проблемой при его использовании : при включении controlnet и просчете нескольких картинок batches, sd dream перезаписывает препроцессорные картинки по верх готовых и только так сохраняет. секвенции получаются вперемешку с препроцессорными depth canny картинками даже сцена из примеров с анимацией Рика считается с препроцессорными кадрами вперемешку. есть идеи что это может быть и как исправить??
Точно так же генерируешь изображение по глубине. Потом можно спроецировать получившуюся текстуру на UV, сделанные проекцией из камеры (UV Texture/Perspective from camera).
Вы могли бы посоветовать как автоматически спрожектить сгенерированное при помощи controllnet изображение обратно на модель, как в dreamtextures на блендере
Так вот у тебя на диске образовалась текстура. Все, что нужно сделать, это подставить ее в ноду QuickShade например. Ну и предварительно сделать UV Texture в режиме проекция из каммеры. Там у меня в ассетах еще есть ассет refresh viewport textures, который с переменным успехом старается обновлять текстуры вьюпорта.
Так.... А вы можете сделать программу где по изображению футбольного мяча будет выстаиваться нодовая программа для создания этого мяча не только в 3д но и с возможностью процедурализма?
иногда мечты сбываются, спасибо за труд! У меня вопрос. Можно ли как нибудь по аналогу с картой глубины генерировать в Гудини и использовать карту нормалей чтобы СД ее понимал? Пробовал делать в Гудини, Блендере инвертировал зеленный канал, менял местами красный и синий канал, часто он не видит ее. В документации говорится что рабочая карта нормалей дает гораздо более точный результат чем черно белая карта глубин
Саму карту нормалей сгенерировать не сложно, любой движок рендера с этим справится. Проблема иногда возникает на стороне КонтролНета. В прошлой версии там тупо криво работала модель с нормалями. В новой версии еще не проверял.
Больше спасибо за работу! Но SD_Dream в контролнете не может найти Model, выдает эррор, в консоли ошибок нет. Контролнет последний, а1111 тоже, препроцессоры выбрать дает, в чем может быть проблема? --api прописал, запускаю с нужного бата.
@@hipnc Я разобрался, не мог найти потому что их и не было :) Автоматически не скачались модели. Скачал вручную, поместил в папку контролнета и заработало, спасибо :)
Привет! спасибо за видео - при подключении SD когда пытаюсь подключить нод в графе SD по изменению моделей столкнулся с такой проблемой - выдает ошибку Traceback (most recent call last): File "Top/SD_Switch_Model, opdef:/Top/SD_Switch_Model?OnCreated, node /obj/topnet2/SD_Switch_Model1", line 1, in File "Top/SD_Switch_Model, PythonModule", line 9, in RefreshModels File "SDA1111", line 36, in GetCurrentModel File "SDA1111", line 157, in Request TypeError: 'Table' object is not callable
Во-первых, надо проверить, что установлен флаг --api, и запускается Автоматик именно через webui-user.bat. Во-вторых, надо обновить Автоматик, на последнюю версию. Если он старый, могут быть проблемы. Если это не помогло, можно написать на гитхабе в issues, попробую разобраться.
@@hipnc флаг --api поставил - все заработало, спасибо, такой вопрос а эти ассеты нужно постоянно заново подключать при каждом открытии программы или можно как то сделать - чтобы один раз установить и все а то что то оно у меня после перезапуска программы не видит их и постоянно приходится их заново устанавливать или я что то не то делаю?
9:30 А существует возможность предпросмотра сразу 4 тасков на рабочем экране? Просто так было бы проще сравнивать и выбирать нужную сгенерированную картинку, и не придётся переключаться между тасками, а смотреть сразу на 4 котиков. 46:44 Хотелось бы подробный гайд по EbSynth
да, можно, надо там же в топ нете все рядом подкомпозить, я делал такую настройку себе, к чьему-то готовому ассету sd в гудини. Еслм ассет opensorce, то может я тоже бы немного подоробатывал его копию
Ты можешь создать новую ноду по аналогии с image_preview. В коп-нете тебе надо будет положить несколько нод file с разными тасками и скомпозить их вместе. Можно даже надписи какие-нибудь добавить.
Я не уверен, как на Гитхабе можно организовать пулл-реквесты с ассетами Гудини, но если ты сделаешь новый ассет, я могу его добавить в репозиторий. Предложения принимаются.
Честно говоря не знаю. Если коллаб позволяет включить --api в Автоматике и там заработает сервер, то должно получиться. Самим ассетам все равно, куда запросы пулять, главное, чтобы адрес был правильный, и АПИ работал.
Если есть проблемы, я могу помочь, можно спросить в Телеграме. Из важного, у вас должна быть свежая версия Автоматика и Контролнета. Гудини версии 19+, с третьим питоном.
@@hipnc Большое спасибо за то, что откликнулись! Был бы Вам очень признателен, если бы Вы поподробней объяснили, что конкретно делать (не айтишнику, а просто пользователю) после того, как скачал зип-файл с гит хаба.
Это набор ассетов, которые работают в пакете SideFX Houdini. Архив можно просто распаковать и дальше я показываю в видео, как их установить. Без Гудини они работать не будут. Automatic1111 это другая история, его нужно установить отдельно. В телеграм-канале Dreams and Robots есть инструкция в первом посте.
@@hipnc Автоматик у меня стоит и хорошо я дружу с контролнетом, а также с рядом других расширений (разбираюсь в теме). Вот этот пакет SideFX Houdini - он где? Откуда его взять? Куда установить?
Ух. Это большой и сложный пакет трехмерной графики. Наверное, не имеет смысл его устанавливать только ради моих ассетов, кривая обучения достаточно крутая. На сайте Sidefx.com можно найти информацию.
Спасибо огромное! Класнно, что подобный инструмент был создан и загружен для общего пользования. Работа с нейросетями в связке с процедурностью Гудини выглядит очень удобно. Особенно понравилась организация всего, как понятно были созданы ноды, интерфейс и все остальное. В ближайшее время попробую и поделюсь результатами.
Really incredible and thank you for having Eng Subs, I wish I knew Russian... I was wondering if it is possible to get Eng Subs for your Live streams eventually? Just so much amazing workflows and rewatch all the time but would be incredible to understand fully what is communicated. Either way, keep up the amazing work and thank you!!
I actually made a fully translated version of this one: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-jCE1Dx_Q924.html As for the streams, it's a hard and expensive task to translate 2 hour long videos, I'm not sure if I can handle it.
@@hipnc Totally understand, hopefully in future prices will get more reasonable. Really want to understand the Brain scan (Shureski in Houdini) and Stream: Blowing Bubbles (Philip Pavlov) videos - I rewatch those two all the time with the autotranslation feature. Either way thank you for providing such amazing content and techniques to the world - means more than you know - it's like a lifeline saying "hey, you can make it with enough effort and thinking" !!
Стас, Вы шикарны! Благодарю за такой инструмент и настолько подробное видео. До сегдняшнего дня о нейронках знал только теорию и пару раз кликал Миджорни. А уже нагенерил 100 котиков и сейчас буду "нейронить" домики! Спасибо большое ещё раз.
Большое спасибо, звучит очень круто, но успешно потестить не удалось, выдает ошибку: " File "Stable_Diffusion_Dream2_dream1_script", line 218, in AttributeError: '_pdg.WorkItem' object has no attribute 'addOutputFile'"
Thanks. By the way, there is an english version of this tutorial, you can find it here: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-jCE1Dx_Q924.html