Всё так и есть. Автор очень объективно оценил возможности которые дает интеграция СД в фотошоп, и конечно, за этим будущее. Автору респект и пожелание дальнейших успехов!
"...то что буквально через год будет нормой для всех нас.." а в итоге сейчас для народной версии фотошопа танцуем с бубном над старыми костылями 😁 не одного ролика русскоязычного нет за месяц про firefly,как сделали ее платной да еще и с лимитами, так все и забили на нее))
Фотографирую интерьеры. Раньше забытый кабель от техники был проблемой. Сейчас нарыл старые равы и за пару минут почистил фотографию до состояния "проффесиональная команда идеально подготовила место съемки". Убрал какие-то объекты не на своем месте, отражения в зеркале, какие-то дефекты на фурнитуре. Мои руки все еще помнят как это все убиралось ручками в фотошопе - долго и муторно.Это шикарно! Спасибо за такое интересное повествование!
2. Всё по-делу, системно, ни единой лишней паузы или интонации! Великолепно! Спасибо. Во-первых шок!! Казалось бы я слежу за технологиями, и прежде всего на английском языке, но жмац - вот оно. Существует и готово к работе. *И блин, это реально меняет всё. Даже пугает.* 3. Отдельно по-человечески порадовала 100% подробность по шагам, вплоть до возможности изменять разрешение файла и... уточнение "дефис не тире" 🤣. Вот только из-за этого фактора подписываюсь, впервые не ознакамливаясь с другими видео. (Я перфекционист, и нахожу в деталях изысканное удовольствие) 4. Всех благ!🙂
@@wavilov.alexey не скажите. Есть же поговорка. Сами не умеют, а учат. А если принять во внимание, что такое понятие как "Красота" нивелировано в современном обществе. То кнопка «сделать красиво» не является чем-то сложным. Нейросеть не может ничего придумать, она может компилировать то что уже существует.
Смотрю ролик из октября этого года. 24 версия фш уже вышла. Ну что я могу сказать, господа из Адобе, это позор. ЛамаКлинер до сих пор шустрее и точнее фш. Пользуюсь кистью "удалить" только для ретуши, когда крайне неудобно переключаться между интерфейсами. Фон чистить уже не так быстро и аккуратно. Либо работать на новом смарт-объекте со сниженным разрешением. Генерация задушена цензурой, дообучение невозможно, на месяц есть 500 круток. 10 простеньких коллажей.
Первый удар по фотографам был с появлением цифры. Не, можешь и дальше фотать на плёнку, но уже для своего удовольствия. Молодые конкуренты обгоняют и уходят вперёд. Прогресс продолжает галопировать уже с нейросетью ...
Спасибо, Александр, за рассказ о новинках в инструментах ФШ, порадовало, что появится один и простой "Удалить". Не порадовало, что реальности всё меньше, а виртуальности всё больше. P.S. Насколько я понимаю, этот новый "Удалить" с применением ИИ будет доступен, точнее будет работать лишь, если на компе стоит лицензированный ФШ, верно?
Не думаю. В фотошопе уже много всего на базе нейросетей встроено, например выделение объекта или маски в Camera Raw. Вычисления происходят на компьютере, поэтому не будет критично лицензия или нет.
Решение отличное, но хотелось бы не так поверхностно, а пошагово пройти с вами данную установку. Обычно вы всегда досконально объясняете, а тут как пуля вылетела :))
Пока что реально можно применить в работе, только удаление объектов. Остальное криво косо не реалистично, но думаю это опять же дело времени ) будем ждать ноября )
@@poor_cola И это плохо. Если нужно вклячить человека- пусть по умолчанию это будет соответственно стилю окружающей картинки. Без всяких дополнительных запросов. И без всяких особенных чекпойнтов, и лор. Так что, пока это очень сыро и неудобно. 😔
Появились цифровые фотоаппараты - стало больше фотографов, упростилась обработка. Появились камеры в телефонах - каждый стал фотографом. А теперь ИИ удаляет самую не нужную часть процесса - того кто нажимает на кнопку, и того кто обрабатывает. Надеюсь объект фотографирования не удалят, т.к. скоро уже не обязательно будет человека снимать :) ЗЫ Хаселблад и Лейка уже в телефоны делают камеры, а Лейка уже объективы можно накручивать на телефоны... и зачем скажите покупать Лейку (которая стоит как чугунный мост) когда купил телефон, прикрутил объектив Лейки и фсе, ты крутянский фотографф с Лекой, не то что эти нищеброды с кирпичами от кэнона и никона (сарказм) ЗЫЗЫ скорее всего мы переживаем такой-же период когда в 19м веке появилась фотография, и стал не нужен художник, что-бы запечатлеть себя любимого для потомков, и не надо было корячиться с мольбертом на пленэре - что-б запечатлеть закат в горах.
Да если углубиться еще дальше. Скоро и камеры на телефонах не нужны будут. Зачем если сделал запрос и все вот человек фон , одежда, цвет волос, загар. Что душе угодно.
уже не обязательно снимать человека. Нарвался на какого корейца, он модель на подиуме делает, так я по началу и не понял что она не настоящая. У AI пока что огромные косяки с нашими пальцами, не даются они ему, я думаю это дело времени, пару лет и пальцы будут как пальцы и если не перебарщивать с идеальной кожей то хрен отличишь от реальной фотографии. Пару лет для этого максимум, а то и в течении полугода уже этого добьются...
@AlexanderMakushin Не подскажите можно ли установить в фотошоп плагин Stable Art на базе Easy Diffusion, так как Stable Diffusion на компьютер AMD не устанавливается.
Скажите пожалуйста, можно ли с помощью нейросети выделить и замаскировать фон у забора с сеткой рабица? И как это сделать? Суть проблемы. Для создания 3д модели методом фотограмметрия я делаю несколько сотен снимков сетки, крупным планом. Сетка в фокусе, задний план-зелень размыт. Сейчас я это делаю вручную, долго и мучительно. Очень хотелось бы автоматизировать этот процесс. Спасибо
Давно такое жду Скорее бы. Кстати стейблдиффюжин у меня работал и на двух гигабайтах оперативы. Другой вопрос что не всегда он нормально устанавливается.
Что то у меня этот автоматик 111 не ставится. Может потому что я до этого поставил Stable Diffusion Gui это прога на комп и пользуюсь той что в браузере Start Stable Diffusion UI ... кто знает в чём причина?
От себя добавлю, что видеокарта на своем компе даже не нужна. Скажем, покупаем в облаке сервер, например oblivus (не реклама), конфигурируем себе любую машину, и запускаем. Потом по ssh -L 7860:127.0.0.1:7860 user@server-ip прикручивем удаленный порт к локальному 127.001, а потом как автор посоветовал на 6й минуте
Здравствуйте, Александр. Благодарен вам за ваш труд. К сожалению не могу найти эту бета версию. Понимаю что ссылки запрещены, может возможно как то словами написать, где же все таки взять эту Бетта версию. Спасибо
Можно скачать через подписку Adobe, но по понятным причинам в России не у всех есть такая возможность. Нужно подождать несколько месяцев и завезут в основную версию
Александр, доброго времени! В первую очередь спасибо за ваш труд и полезные обучающие материалы. Хотел спросить: а можно ли подобным методом наоборот полностью создать фон под объект? Допустим есть фото крана для кухни на прозрачном фоне, и необходимо чтобы нейросеть нарисовала к этому крану раковину на кухне. Если возможно такое, не могли бы вы подсказать какие шаги нужно выполнить для этого в плагине SD? Прямо сейчас пытаюсь выполнить такую задачу, при помощи выделенной инверсии, и полностью выделяя все изображение - не получается создать фон под объект. Заранее благодарю, если найдете время ответить!
Здравствуйте, подскажите хочу начать заниматься фотографией коммерческой (на сколько это возможно). Стоит ли сейчас начинать ? Нейро сеть ли не заберёт вот это все и не облегчит задачу людям делать самим ретушь ?
Сделал всё по инструкции, Stable установил, всё работает через веб, но как подцепить его к PS не понятно. Добавил плагин, как сказано, в папку, где у меня все плагины для PS. Но у меня нет кнопки "Подключаемые модули". PS перезапускал, менял версию на русскую, лазил по меню, нигде не нашёл. Получается, всё было зря?
@@AlexanderMakushin да, пробовал в 2018 (19.1.4), потом в 2022 (23.0.1) и только в 2023 (24.1.0) появилась. Хотя, в других видео говорили, что и к 2019 версии подключали.
@@AlexanderMakushin только, теперь, при попытке что-то сделать в PS, выдаёт ошибку "Error: Request failed with status code 500". Хотя, через браузер, Stable Diffusion работает. UPD: ошибку частично исправил, добавив --medvram --opt-split-attention, хотя, у меня видеокарта 8ГБ. UPD2: короче, всё равно эта ошибка часто вылезает. Я так понял, это память видюхи заполняется как-то. И т.к. дорисовать фон с помощью этого плагина через PS Я так и не смог, в итоге, удалил всё нaxep, хотя и пол дня на это всё убил. Думаю, надо ждать, когда выйдет полноценная версия PS с Firefly и не тратить время на эти "костыли" с Stable Diffusion.
«Средненькая видеокарта с 6гб памяти». Я на днях взял новый ноут с RTX 3050 с 4гб видеопамяти, и, вроде, он считается приличным решением для работы с графикой… Думал, потянет нейронки, и тут такой облом😢
Любые ноуты они как бы не для серьезной работы -так куда-то поехать слегка поработать -а лучше хорошего стационарного компа с хорошим монитором и тд еще не придумали. +переплата за мобильность и миниатюризацию....
сижу на ноуте с 1650 GTX 4гб памяти. полет нормальный. Мои арты не могуд воспроизвести на других картах, от слова СОВСЕМ! И да, генерация от 3, до 15 минут в зависимости от семплера, степов и CFG Scale, но оно того стоит.)))
@@Delorean_ARS Хм я на устаревшем серверном CPU Xeon e5 2666 v3 (10 ядер 20 потоков SD грузит его только на 65% видимо не умеет столько потоков использовать) рисует 512x512 = 4 минуты. Рисовал 1024x768 или даже типа 1024 на 2048. Долго конечно - но зато в память не упиралось.
@@JH-gh7gl Именно этот плагин и есть готовая нейросетка SD с обученными моделями и которой инет нужен только при запуске для обновлений - и использует она только ресурсы вашего компа - она должна работать на шопе с таблетками от жадности. А вот родные плагины на ИИ от Adobe - те еще и в облаке могут считать -вот там действительно нужна активная учетная запись и т.д.