Кароче к производству еще года 4. Это пока нагенерь сценарий, отредактируй, обучись присать промпты, 2 секунды 1 сцена, жди генирацию, дальше на изотоп в апскейл... Что бы на выходе получилась доделаная шляпа, я за это время сниму в студии 15 шортсов, покрашу, через РР вырежу все паузы, скачаю картинки с гугла и накину через капкат переходы на все это и пресеты и будет продуктивней х25
Ну чтоб миниклипы производить - наверно 5 лет ещё. Но в целом может "повезти" с нагенеринными видео и из 20-30 можно сложить 20-100 секунд необычного видео. Для рекламок, примеров работ и блогинга уже достаточно. Для качественного видео и фильмов - это ещё очень конечно сыровато.
02:41 "вы просто рисуете скетч и отправляете в программу..." И в этот же момент: - на верхнем видео дома на заднем плане меняются просто на глазах. - на среднем то же самое, ещё успевает фонарный столб появиться слева в кадре. - на нижнем видео видим как машина просто растворяется в воздухе!!! 03:06 смотрим на задний план и любуемся. Всё супер! Успехов!
Так ясно же что нейросеть. Генеренки всегда видно косяки если всматриваться. А если скрыть косяки и поработать над каждым кадром - то обычный зритель не заметит
Всё было бы хорошо, будь возможность у этой и подобных ей нейронок делать видео длительностью более 3-х секунд, по сути 3 секунды это не видео, это анимация, прикольно конечно, НО... Ждём sor'у или тех кто даст более длительные именно видео делать
Да будет жизнь прежней. Теперешнего качества хватает только для спама - как в картинках, так и в видео. Приближение к "production level" качеству может просто проиграть в цене по причине больших энергозатрат и цены оборудования. Ведь еще и генерация с первого раза редко удачная. Снять видос на камеру точно дешевле, чем сделать качественный рендер этого же места - это база (потому что рендер в реальном мире "бесплатный"). Отталкиваясь от этого можно спрогнозировать, что генерация видосов в лучшем случае потеснит стоки (может сбить им цену, уменьшить маржу). Но она точно их не переиграет по причине фундаментальной дешевизны сьемок на камеру.
Да верно. Я вижу что поток контента льётся уже из этой нейронка на ютуб. Монетизация даже не так важна, многие каналы продают свои услуги и это просто доп. Инструмент привлечения трафика. А фантазия для генераций безгранична
@@timd7815 Еще как отличишь, постоянные ляпы с пространством, проблемы с пальцами, симметрией. + выкладывают удачные варианты, а сколько брака? Чтобы пропали ляпы, нужен artificial general intelligence, у которого должно быть концептуальное понимание ЧТО он генерирует. Вопрос его достижимости с современными подходами (натренировать с нуля за разумное время) - открытый.
Фигня. Любой классный спец всегда отличить настоящее видео от видео , созданное ИИ. Фото, может быть потому, что там нет движения, и "отталкиваться" в анализе либо вообще не от чего, либо "точек" анализа намного меньше. В видео классный спец ВСЕГДА увидит "косяки" хоть от SORA, хоть от HAIPER... Зрение человека, как и камера "видят" трехмерное изображение. ИИ рисует "в плоскости" экрана...Пример тому : Крокус...
Подскажите в какой нейросети можно именно редактировать СОБСТВЕННЫЕ футажи с камеры? Поясню: допустим съемка музыкального клипа. Есть группа/артист снятые на циклораме или допустим в локации какой-то. Мне хочется поместить их в какой-то сеттинг. Где это можно сделать? Видела такие примеры в соре, но я так понимаю это недоступно пока
По сути Вы хотите перенести людей отделив от фона. Совет дать не видя материал сложно + я не вижу референс. Я делал так - отделял autoroto (прога отделяет людей на видео от фона) - далее в After Effects кидаете окружение установив камеру и создав локацию 3D там - после это все можно отправить на стилизацию. По стилизациям есть Stable Defusion warpfusion и движки на базе SD - сервисы тестирую и таким образом после стилизации возвращаете актеров без стилизации и можно получить достойный результат.
@@AIDesignWorld33 Сид - это шум. Нейронка пытается максимально стилизоваться под определённый кадр, НО на начальных и бесплатных настройках это почти не работает. Нужен обычно PRO аккуант и в нейронках с фотографиями и в видео нейронках.
Спасибо. Это действительно нечто многообещающее, движения выдает весьма интересные и непредсказуемые, но всё-таки продукт явно сырой, без доводки в AE никуда. При этом они уже вводят платную подписку, что смешно при 1%: удачных рендерингов. Видимо хотят успеть до выхода Sora "в народ".
Это только начало. Сейчас все те, кто успеет нажиться на нейросетках наживутся, а далее все владельцы нейросеток выставят платный план, те кто остались в нищете безысходно идут на заводы работать
Расскажи пожалуйста, как избавиться от водяного знака топаза, который не маленький в углу, а почти на весь экран по центру? Или у тебя версия топаза может другая, или все же платная?
Ютуб не будет давать монетизацию на нейро видео. Если поставить два вертикальных светильника по бокам, то они не будут давать блик кольцом в очках вещателя.
Да все верно. Тут использовал кольцо, а его спереди за компом на стенке можно было разместить только в 1м месте. Тут нужно экспериментировать и наловчится. То что я уже пару месяцев делаю
@@highlandsdweller нужны правильные показатели. CRI у источника света ( диодов) За 500р ничего хорошего не получится. Мерцать все будет и цвет не живой
Может быть я что-то не докрутил в настройках, но у меня HAIPER генерирует видео на 2 секунды. Да, картинка супер, но это видео на 2 секунды. Таже самая Pika генерирует видео на 3-4 секунды. Хрен не слаще редьки. Для видео продакшена оба варианта неприемлемы, потому что замучаешься из таких кусочков что-то создавать.
Дорогие Земляне, продумайте вариант выключения общего рубильника, создайте подушку безопасности! Иначе вы можете оказаться вновь с палкой - копалкой в руках. ЛЕГ.
Уже умерли похоже. Я тестирую нейросеть которая берет скрин с шатера например и делает креативный апскейл - на выходе стоковая картинка. Расскажу об этом скоро в след видео. Готовлю материал и тестирую
@@AIDesignWorld33 лучше бы ваши AI могли быстро повышать качество видео а не за 2 часа ролик из HD до 2K а мне их надо 800 штук по 50 минут так прогнать этож целая жизнь это каждый ролик по 2.5 часа будет прорабатываться
Я вот слышал что в 2024 году ютуб собирается отменить монетизацию за использование нейросетей и смотрю блогеры начали активную рекламу этих продуктов. Что это может значить?
2 секунды?! Это хуже всего. Может по сиду можно что-то собрать из пару десятков вариантов. Генерацию по картинке сравнил с тем, какие результаты имел в Пика Лабс. Пика быстрее и что-то можно с нее получить. С хайпера при том же десятке генераций желаемого не собрать. Если смогут повысить длительность создаваемого видео, то есть смысл, но думаю, что нет. Выйдет Сора или кто-то быстрее подсуетится. Пока лучшим из картинка-в-видео для меня Пика.
Жаль, что не показал, как этим пользоваться. Потыкался, потыкался. Генерит буквально две секунды из изображения. Как сделать такой ролик с длинным видео-рядом, как у тебя на превьюхе с БМВ так и не понял. Вместо рассказывания, лучше бы показывания.
Я болел тогда и очки были нужны. А когда ставишь оборудование в 23.00 чтобы записать может все пойти одним местом. Я рад что так получилось. Но попробую что то сделать . Например снять очки
С апскейлером Топаз есть одно весомое НО. Подписка стоит 300 баксов🤡 Не проще ли уж тогда делать анимацию в Runway, который сразу генерит в норм разрешении, и подписка на который стоит В ДЕСЯТЬ РАЗ дешевле?
Не знаю как там у вас, а у меня в этом хайпере генерация посредственного качества, оживляет картинки тоже через раз через задницу, ну а времени на каждый запрос уходит до хрена ожиданий
Нет это совсем не то я спец по AE если что:) DOF или целые плагины с DOF анимацией это и рядом не стоит. Отражения на асфальте движутся, фара становится живой, камера движется вокруг. Да там примеров море крутых
Задолбали эти блогеры! Путают понятия видео и анимация!!! мне нужно видео! а не ваша анимация! когда вы уже научитесь правильно писать название ролика... Насчет Миджорни - она не дает реалистичной картинки поэтому я отказался от нее в пользу других нейросеток которые намного круче! а если вы зациклились только на Миджорни то вы никогда не найдете ничего лучшего! Удачи...
Фигня. Любой классный спец всегда отличить настоящее видео от видео , созданное ИИ. Фото, может быть потому, что там нет движения, и "отталкиваться" в анализе либо вообще не от чего, либо "точек" анализа намного меньше. В видео классный спец ВСЕГДА увидит "косяки" хоть от SORA, хоть от HAIPER... Зрение человека, как и камера "видят" трехмерное изображение. ИИ рисует "в плоскости" экрана...Пример тому : Крокус...
Типа крокус что? Нейронка? Дело в том что я монтирую часто на высокой динамике 2 секунды и смена и задача донести образ. Поэтому эта задача закрывается этим сервисом . Готовлю видео о создании мультика
@@AIDesignWorld33 рад, что порадовал ))) Ну а серьезно... ну навалено все, как то в кучу. Без обид, это всего лишь мнение одного не совсем продвинутого.
Найди правила почитай. Там пишут про повторяющийся контент или который сделан автоматизирован. ИИ уже на ютубе - очнись. Каждый заголовок , картинка, описание, heygen, липсинг. К тому же не просто генерить а делать это умно
@@IRKUTSK88 так я не призываю, как раз из видео в видео об этом говорю. Что не так перспективно. Если снимать себя + ИИ то будет монета. Любой канал должен быть с лицом считаю.