@@panarth1142 ну нет, что-то серьезное за такой срок не сделают даже солидные корпорации с бюджетом. Но согласен, ситуация меняется довольно динамично.
Через год: Видео [Делаем обзор для Ютуба] Прописываем в промте: hachatur, video for youtube, new functional for stable diffusion, generate text with ChatGPT Негативный промт оставляем по дефолту, выбираем стиль (Xpust RU-vid), нажимаем Generate. И вот, пошла генерация. Стили есть на бусти, так, что идём и качаем там. Длина видео: 1:35
Огонь! Действительно это выглядит как то что нейронка уже делает не отдельные картинки, а как бы понимает в чем суть действий\событий в генерации, спасибо очень большое за такой подробный и емкий обзор мастер учитель!
*Вчера случайно наткнулся на этот канал т к я ещё новичок в этом деле) Спасибо большое за контент, реально после ваших видео другое ничего смотреть и не хочется*
быстрее чем рекомендации RU-vid , Ссылка на данное видео прилетела от друга со словами : "Вселенная тебя слышит. Вот и рождение генерации видео по запросу доступная всем.". Было приятно видеть искренние эмоции и желание автора поделиться с нами . Спасибо за твою работу.
Хачатур, привет! Хочу сказать спасибо тебе за твои видео, смотрю только твой канал по АИ, рад, что начал свое обучение опираясь на твои познания. Желаю развития твоему каналу! Нравится подача материала, все полезное, со всем можно работать. Спасибо!
Комент , для того что б продвигать видео и канал , такого замечательного и талантливого человека как Хачатур ! Как обычно спасибо , что держишь нас в курсе новинок ❤🔥
Хачатуру Огромное спасибо! Видно, что автор переживает за то, что делает! Считаю, что по мимо очень полезной информации, автор еще и занимается просветительской деятельностью, это расширяет кругозор! Для меня это видео однозначно полезно! Будет конкретное расширение далее полезно или нет не знаем, но что уже есть какие-то результаты - очевидно!
Там где она smiling да на телефоны в 2005+/-, то там бы все писались бы кипятком, а нынче все балуванные 🤣. А если честно, то это круто и круто что технологический скачок пошел очередной и то что мы зрители и участники этого, так как в очень интересное время живем. Спасибо за еще одно отличное видео!
Лето, 2023. Хачатур делает обзор на модель, которая генерирует 3д-игры по текстовому запросу. Зима, 2023-24. Дополнительная и виртуальная реальность по текстовому запросу. Лето, 2024. Генерация андроидов по тому же запросу и Хачатур сливает модель без цензуры) Продолжение не следует.
Поставил за одно с зумом переводчик, там же, в приблудах к СД висит. Удалённый хост закрывает доступ к интерфейсу, после установки, грешил и на зум, но с ним всё норм работает. Переустановил уже всю дифьюжн, не качайте переводчик, вдруг рука потянется, как у меня. Пытался в Дискорде написать, не пустили. Больше негде. Хачатур спс, два лайка, как обычно. )
Подскажите пожалуйста, это все хорошо, но я работаю с видео и все что делаю, это через вкладку img2img вставляю свое видео разбитое на кадры и меняю его с помощью промптов, есть уже по лучше варианты?
ХрисТ, запиши пожалуйста видео, как генерировать изображения одного и того же человека, но в разных позах, при этом чтобы одежда прическа и в целом сам человек оставался тем же.
Промт + scetch или промт + ControlNet(posex), так же тебе в этом поможет inpaint, если уникальное лицо то шлифуешь это гиперсеткой или лорой, это все рассказывалось в предыдущих видео, поищи.
Я натренировал LoRA человека в одной одежде и прическе но под разными ракурсами с хорошим освещением. И потом можешь в промте указывать тип и цвет одежды хоть она и так будет тебе это пропихивать в изображения.
@@IceShtopor привет, скажи пожалуйста какое конрнтно видео или может статью или еще ято, я сколько не пробовал у меня не получается, я уже мощг себе сломал(((
Действительно без психодела, это уже похоже на настоящее видео... через год наверно люди уже будут генерировать видео с полетами на луну и порно с кактусами, а главное с котейками которые могут просто все х)
Блииинн, у меня тоже трепет от того что это очень быстро развивается. Страх от того что заказчики скоро сами все будут делать и радость что можно будем просто тварить без кодинга и хуединга
Уже активно генерю в этой штуке (через колаб, каждая генерация в среднем 3-4 минуты). Во-первых, промт тут решает, но прямо длинные промты с прописанными деталями он плохо переваривает. Если прописать как именно снята сцена (вот вам в арсенал "close-up" и "panoramic view" к примеру), и ешё добавить "cinematic", то результат становится намного лучше. Также он понимает, когда пишешь про замедленную съёмку. Если не указывать бекграунд, он его не делает (или делает, но в редких случаях), так что про задний план не забывайте. Так как я не могу никак делать видео, это для меня просто космическая возможность (если ещё Ген-1 не разочарует, то это всё удваивается). Я уже монтирую клип на целый трек и буду идти в этом направлении. Хруст, если интересно, могу показать свои наработки.
Всем покажи. Лично мне интересно. Пишу музыку, хочу делать клипы с помощью генерации видео. Пробовал через Deforum, но слишком непредсказуемый результат, не смог получить то, что было по замыслу.
При подключении по твоей инструкции не запускается через гугл коллаб, бесконечное "подключение" по выданной ссылке и интерфейс не появляется Какое может быть решение а если его нет, то как можно установить версию с таким же интерфейсом на мак? нашел только easy diffusion
Ну всё, в конце года будет нормальная text2video модель. Будем рендерить видосы в 240p. А в 720p не будем рендерить, потому что доступных видюшек с 48 ГБ видеопамяти в конце года не будет :D
Страшно становится от мысли, что ИИ в будущем сделает любое видео, которое попросишь на уровне сегодняшних лучших аниме и фильмов…. Каждый будет сидеть у себя дома, создавать свои мультики….
я подписался, очень крутые видео, прям по полочком все разьясняешь, один вопрос, в тик токе есть видосы где с увеличением зума меняются картинки с каждым кадром, наркоманские эффекты по типу, есть ли у тебя такой урок как это делается, если нет то планируешь ли ты? я думаю всем было бы очень интересно!. Спасибо!
Хачатур, добрый день. Смотрю каждое видео и каждый раз что то новое узнаю, а так же устанавливаю некоторые расширения и вдруг подумал... что засрал нахрен весь автоматик и пошли всякие ошибки. Вина в этом моя. Сразу говорю для всех крикунов.)) И вот что хотел спросить: мне не особо нужно сейчас это расширение и забивать вкладки лишними функциями не хочу, но, почему бы для "своих нужд"не поставить чистый автоматик, с парой моделей, но оставить при этом тот что был раньше (засраный) для экспериментов, а не удалять его. Не будет ли всё это конфликтовать? Вот в принципе и всё что хотел спросить.)) Спасибо за труд!
Здравствуйте Хачатур. Будет ли обзор на ebsynth utility? Я попробовал это расширение, но возникла проблема с ffmpeg, он установлен( в переменной среды path прописан путь к ffmpeg) ,но ebsynth utility не может его запустить пишет ошибку неизвестная команда, хотя есть открыть cmd и там написать ffmpeg, то он выдаст хелп по её командам. Загадка почему так.
Интересно, когда это все будет доведено до ума на сколько много времени будет занимать генерация 10 секундного видео и будет ли хватать нынешнего железа?
круто, интересно, если такими темпами будет развиваться AI, то что будет через 5-10 лет 🤔 (голосом Гаврилова) они запаланили планету, они запаланили... 🙃
Христ очень хорошое и подробное видео, но у меня маленький вопрос поч создатель этого враппера сделал его виде расширения для SD, modelscope video это вообще другая дифуззионая модель у нее даже архитектура другая UNet-3d.
Привет всем. Немного дурацкий вопрос. а как удалить тот что сначала показывали в начале видео , поспешила, нажала инстал, но потом сказл что ненужно его ставить. и теперь не могу нигде найти как его удалить ,((
Вопрос не по этой теме но все же. Если я ставлю вес 0 в prompt это эквивалентно что токена нет в prompt. Пример (cyberpunk:0) то токен не используєтся? И тоже самое HyperNet если стоит 0?
В перспективе очень крутая технология, но пока что сегодня никуда не годится. Лучше сними видос про Open Outpainting. Это действительно классная штука. Deliberate работает не всегда идеально, дабл-тело и дабл-ебл проскакивают, зато с ChillOut почти в 100% случаях нет артефактов. Нейросеть генерирует хорошо портреты, Open Outpainting дорисовывает тело.
осталось дождаться когда будет одинаковый персонаж в кадре, и можно задавать запросы по типу " какой то персонаж, 360 пролет камеры" и через нвидиа нерф получать 3д модели которые можно будет использовать допустим с нанитами в анриле! или лору обучить и комиксы рисовать))))))
Я кстати пока сижу делаю свой враппер поврех этого который даже способен работать с разными семплерами и расширениями я даже на 12 гб смог сделать 512x512 нативно. Мне кажется это расширение не такое гибкое (ток я там могу врубить много оптимизонов ну из diffusers)
Как понимаю гайд сейчас не рабочий? Новая версия, новые возможности. Установил через интерерфейс стейбла но почему-то не подкачались модели. Установил их по этому гайду и получаю ошибку логов. Хз как быть
У меня ошибка raise TypeError("Expected state_dict to be dict-like, got {}.".format(type(state_dict))) TypeError: Expected state_dict to be dict-like, got . Exception occurred: Expected state_dict to be dict-like, got . устанавливал все как сказано в видео, в чем проблема?
ddim видать изза того что он меньше памяти жрет, сэмплер же должен предыдущий кадр "в памяти" держать ... у nkmd в его сборке тож тока ddim на видяхах меньше 4гб включается