На данный момент это видео является хорошей базой для понимания, однако, на данный момент мы полностью перешли на LoRA: ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-A15M4cbUM5k.html
Благодарю за видео! Hypernetwork не могу найти кнопку, уже вроде все обновил и конфиги твои с бусти поставил, все равно там под кнопкой Generate у меня 5 иконок и одна кнопка (styles)
Выдаёт ошибку при Preprocess, какие есть варианты решения ? SD через Googl Colab (AUTOMATIC1111), Путь к папке указываю на ноуте ( на Google Disk тоже указывал и тоже ошибка) Ошибка выглядит вот так : FileNotFoundError: [Errno 2] No such file or directory: '/content/gdrive/MyDrive/sd/stable-diffusion-webui/E:\\STABLE DIFFUSION\\TRAIN\\Trumpet1'
Сломал stable diffusion, переустановил, час по новой надо галочки расставлять и все такое, сделал памятку) 5:48 модель 5:52 отключить HN 6:27 saves optimizer 21:09 все галочки Modules 22:46 название 23:04 overwrite на всякий случай 23:14 Create HN 23:26 Preprocess галочки не нужны для человека 31:06 Train Hypernetwork Learning rate 2e-5:800, 8e-6:1600, 5e-6 32:12 редактирование py.ui 37:02 max steps 3200-10000, количество фото 12-38 41:11 read parameters поставить галку 43:15 выбрать свой HN 43:35 папка с фото для обучения PNG 43:42 содержание файла custom 46:27 нажимаем Train custom.txt a photo of a [filewords] a cropped photo of the [filewords] the photo of a [filewords] a photo of my [filewords] a close-up photo of a [filewords] a close up photo of a [filewords] a bright photo of the [filewords] a cropped photo of a [filewords] a photo of the [filewords] a good photo of the [filewords] a photo of one [filewords] a close-up photo of the [filewords] a good photo of a [filewords]
@@MrZuzlik я обычно так делаю, да. Удаляю папку и по новой) А ломается когда как профессионал начинаешь в настройках копаться, вписывать всякие аргументы в батник и т.д.)
Вот это да. Если ты продолжишь пилить такой годный контент по нейросетям, ты будешь самым крутым ютубером по теме, как минимум в РУ-сегменте. Мое почтение! Как же ты хорошо разобрался во всех деталях, во всех галочках. Круто что ты разбираешься сам во всем, а не тупо пересказываешь чужие туториалы. Короче ты крутой чувак.
@@Ruinskiy эм.. если я не ошибаюсь то нельзя такое делать без разрешения посторонних людей... Себя для личного пользования и друзей для их личного пользования вполне норм. Да и пока ты не меняешь лица на порноактерах думаю всем пофигу на эти дипфейки.
да, очень круто, а теперь по этому гайду, расскажи, что такое batch size, gradient accumulation steps, latent sampling methods =) Не получится, потому, что он половину всего упустил, много воды и сумбура, мало структуры, можно было бы сделать лаконично, по сценарию, с разбором важных вещей и без воды и без метаний то туда, то сюда. Мне, например, много вещей не понятно, от просмотра часового лайв монолога понятнее не стало. Прошу не расценивать меня как хейтера, просто отзыв человека, который на начальном этапе в разборе темы обучения нейронок, но немного понимает как работает обучение реальное. Исходить нужно всегда из задачи. прим. хочу обучить нейросеть на выдачу результатов в моем стиле. прим. Хочу ввести: Дуэйн джонсон на пляже играет в теннис в стиле 'мой_стиль'. Для этого нужно обучить нейросеть. Для начала нужно ознакомить с базовыми понятиями и терминами, объяснить что такое обучение гиперсети, как оно работает и т.д. (в кратце) дальше показать пример, есть вот обученная гиперсеть, заходим в текст2имг, пишем: Дуэйн джонсон на пляже играет в теннис в стиле 'мой_стиль' или Джеймс Кэмерон на марсе ездит на велосипеде в стиле 'мой_стиль'. Теперь приступим к обучению, хаходим во вкладку трэйн... далее все четко и по пунктам. Это так в моем представлении называется хороший гайд. А куча сумбура, пусть и с полезной информацией - это "крутой чувак", "вау", "ну ты шаришь", но никак не отличный гайд. Еще раз прошу прощения если слишком резко. Это я к тому, что не всегда восторженные возгласы толпы - показатель качественного обучения. Мб чувак не шарит в аннгглийском, пытался смотреть англ гайды нифига не понимая, а тут наткнулся на первое видео на русском и у него от этого факта восторг и хорошие отзывы, хотя он даже еще SD не установил.
Хачатур, спасибо, что делитесь с нами результатами своих исследований! Очень информативно, очень ёмко, максимально разжевано. Честно говоря кайфую от подачи материала - приятный, хорошо поставленный голос, расслабляющий музон на фоне, капелька юмора, можно слушать часами :) Многих спикеров приходилось слушать и хороших в том числе, но автор твердо обосновался на верхней строчке моего топа :)
Спасибо за контент. Делал подборку что посмотреть для начала внучке, что бы самому всё не обяснять)) По поводу Указания возраста. Хотя вариант не абсолютное решение, но с указанием возраста я тоже намучался)) Моё решение, использовать при указании только подсказку пола и возроста. Вместо woman или girl, двадцатилетняя она))) - (she_20yo) или ((cute_she_20yo)) и т.д. Как правило получается наиболее близко к желаймому. Правда иногда приходится усиливать скобками, поскольку давит остальная подсказка, как правило подтягивая к некому среднему возрасту. Чем сложнее подсказка или отрицательная подсказка, тем сильнее нужно напрпвить внимание сети на возраст модели скобками.
Огромное спасибо!!!! Пару дней мучался. Все никак получалось, чтобы нейронка так похоже начала рисовать. Благодаря золотой пропорции в настройках , которые вы указали , все отлично получилось!
Всегда поражаюсь, насколько все умные чуваки не умеют объяснять и учить других. Просто показать как проставить галочки и запустить тренировку никак, надо миллион раз отвлекаться и перескакивать с темы на тему, вываливать кучу информации и прыгать от одного к другому. У меня не создаётся папка "аванес" (назовем ее так), вскакивает сообщение "Created: None" и я час гоняю видео, чтобы понять что сделала не так и так и не могу поймать ход мысли автора, который объясняет мне все на свете сейчас и из всей этой информации я никак не могу выкопать зерно истины))))
@@trappgwalla300тяжело не в тех случаях, когда автор все подробно объясняет, а в тех случаях, когда слушатель глупый, или не хочет подумать. Хачатур в комментариях написал для тех кто в танке что Created:none это норма. Да и тем более, неужели вам всем так лень посмотреть просто в папку, где должен лежать этот файл? Вы возможно удивитесь, но даже при этой надписи, он все равно создаётся, и трейн все равно будет идти. Просто делайте по инструкции от Хачатура, тыкайте то, что он тыкает, и не надо ни шага влево, ни шага вправо от того, что он делает, раз вы такие глупые. Эксперименты не для вас явно....
Согласен! Так - то, мужику в любом случае спасибо... Но из большинства роликов можно, как минимум, половину "воды" удалить, и они от этого только выиграют. Меня никогда не пугал размер материала, если всё по делу. Но тут оооочень часто просто ждёшь, когда же автор перейдёт к сути. P. S. Но опять же, я без претензий. Как говорится... Дареному коню в зубы не смотрят. Просто мнение)
Проверено опытом: Если человек не умеет объяснить, значит он сам не до конца понимает тему. И подсознательно использует словоблудие, чтобы замылить пробелы собственного непонимания для себя и для слушателя.
Вы в видео несколько раз упомянули (например на 19:55 ), что файлы с описанием не нужны если обучаете предмет, но нужны когда обучаете людей, но потом так и не используете их, говоря, что достаточно "a man" прописать и не указывать, чтобы итог был гибким и мог делать любую одежду и внешность. В итоге они нужны или совсем нет? :-) И какой разброс допуска внешности фотографий? Лицо анфас и чуть вбок это точно, очков или каких-то посторонних предметов быть не должно, свет и цвет должны быть нормальными и примерно одинаковыми везде (чтобы не было какой-нибудь фотки из клуба с красным неоном на лице), нужно как клоузап лицо так и несколько (1,2, сколько?) фотографий ниже груди, нужен разнообразный фон (или лучше везде сделать белый как на паспорт?). Дальше уже вопросы, нужно ли обязательно разную одежду? И можно ли? Должна ли быть одна и та же прическа или стрижка? Должен ли быть открыт или закрыт рот? Нужны ли фото в полный рост? Всё это поломает трейн или наборот разнообразит его? Было бы здорово точно так же как Вы всегда делаете математически рассчитать и сказать что именно должно входить в идеальный батч для обучения, допустим, из 20 фото: 10 анфас как на паспорт с одинаковой прической как база, 3 фото анфас по грудь для гибкости, 3 фото с чуть повернутой головой, 2 фото с другой прической, 2 фото с улыбкой с зубами, 1 фото пьяного и спящего уткнувшись в подушку. :-D Чтобы чётко понимать какая должна быть идеальная подборка, чтобы получилось качественно, не считая мелких дефектов о которых Вы упоминали наподобие родинки-второго кадыка и вмятинах на черепе. :-) Я просто тоже люблю не наобум делать, тем более что у меня карта слабая (1060 6гигов) и у меня цена ошибки при трейне это целая ночь потраченная впустую, а мб и ночь + половина дня. Как обычно, это не какое-то требование, а пожелание, чтобы раз и навсегда все (как минимум мои) вопросы по изображениям для трейна закрыть. Есть ещё вопрос трейна определённого предмета, например огнестрельного или холодного оружия, или инструмента по типу топора лесоруба. Там все такие же правила или нет? Здесь или на Бусти.
согласен с тобой, интересно было бы узнать ответы на эти вопросы. Как обучать нейросеть на другие предметы, например одежду, интерьер, экстерьер. Должен быть один и тот же человек под разными ракурсами сфотографированный в одной и той же одежде, либо можно использовать разных людей, но в одной и той же одежде?
Здравствуйте, уважаемый Аванесян! Хотел выразить Вам огромную благодарность за Вашу инструкцию с подробной настройкой и акцентированием на всех важных мелочах! Мне по работе нужно было научиться обучать Stable Diffusion, я потратил более 8 часов на различные туториалы, как зарубежные так и на русском языке. Столько сил и нервов было убито в попытках заставить работать Dreambooth, её настройке и попытках разобраться во всём, столько переустановок SD и всё бестолку. У меня то выскакивала ошибка о недостаточной видеопамяти, то генерация начиналась, но была настолько медленной, что смысла не имела от слова совсем. Особенно если учесть, что последняя версия Dreambooth переработала интерфейс и доступыне параметры настроек, гайдов по которым ещё ни у кого нет. Да и не имеет смысла, так как на гитхабе жалуются что программа больше не работает на картах от 8 гб, даже с костылями по оптимизации (я пробовал всё). Я уже отчаялся и думал забить на всё, но тут случайно наткнулся на ваше видео... Вы дали ясность во многих моментах, которые я до этого не понимал, что оказывается всё намного проще чем я думал. Я сделал всё по вашей инструкции и о чудо, всё заработало! Генерация на 3200 шагов прошла за 30 минут, после чего никаких ошибок программа не выдала. Так как изображения я подготовил правильные и отредактировал по вашей рекомендации (убрал фон, отобрал правильные положения лица), итоговый результат потрясает! Это именно то, чего я хотел! По этому я хотел бы отблагодарить Вас донатом на Boosty. Спасибо ещё раз!
Если сделаете видеоурок по тому, каким образом можно создавать концептуальные арты с одними и теми же персонажами в духе комиксов, это вообще взорвёт сеть, поскольку такого инструмента ждёт множество людей, которым хочется рассказывать свои истории, а учиться рисовать, осваивая новую профессию с нуля - уже практически нереально!
Сначала подумал, что будет какой-то шляпный видос полный воды на целый час, но по факту очень хороший, подробный и полезный гайд, один из лучших наверное по stable diffusion и вдвойне приятнее, что он на родном языке :) Автору точно респект
У меня получилось, правда со второго раза :) пересматривала видео два раза, вникала и пошагово выполняла. Просто хотела поделиться и оставить комментарий в поддержку канала.
Спасибо 👏 наверное за полгода первый ролик, который смотрел на Ютубе на нормальной скорости х1)) годнота👍 интересно как далеко шагнут нейросети лет через 5-10, может новые профессии появятся, промптеры по нейросетям, например))
Сергей! Реально все круто!!!) НО! Блин! Понимаю, что трудно обо всем рассказать. Очень важно осмыслить результат того, что в итоге получается, а вы так быстро перепрыгиваете с одного на другое, что не успеваешь понять и осознать что из этого вышло). Хотя заметил все программисты такие)))
Спасибо за очередной видос по нейросетям, не смотря на то что все кажется разжованным, пока смог только генерить нечто похожее на себя, а как сделать из себя вот этого злодея как на заставке так и не понял, как только добавляю что то в запрос уже становлюсь не похож на себя )) И все еще хотелось бы подобное видео по арту, например игровые мечи, автоматы или танки.... что бы можно было сгенерировать нечто новое... Но в любом случае спасибо за труд, тут один раз тренировал сеть 2 часа и то устал ))
Огромное вам спасибо! Единственный канал с годным контентом по этой нейросетке! В дополнение к уже отснятым роликам, я безумно хотел бы чтоб вы сняли тутор по созданию анимации, по типу "нейросеть показала историю мира" где поочередно сменяются картинки плавно перетекая из одной в другую, начиная от динозавров заканчивая цивилизациями будущего.. Как делать подобные шедевры? Лично я всегда поражаюсь, когда вижу такие ролики, думаю куча народу как и я ждут подобный тутор от Вас!
Привет! Я опытным путем выяснил, что тренировать имеет смысл разными пачками кейвордов последовательно, чтобы отсеять и по форме, и по содержанию шум качественно
Это надо же было так все запутать, кто захочет повторить хрен разберется :) Написал в prompt template - [filewords], а тренировал в папке без описаний, только с картинками
Приветствую! Спасибо за полезные видео! Пользуюсь Stable Diffision через Google Colab. Столкнулся с такой проблемой в настройках нет вкладки с hypernetworks. Провел тренировку модели, а как ее теперь применить, не знаю. Может кто сталкивался, подскажите решение.
Вы спрашивали - какую тему в нейросетях вам осветить? Моё мнение такое, с тем уровнем погружения в тему, которая у вас имеет место быть - Интересует всё что вы осветите.
Очень насыщенное видео, но по сравнению с предыдущими в плейлисте тут как то более скомкано, больше тараторите. лично мне приходилось перематывать и пересматривать(переслушивать). Лайк. До сих пор под впечатлением после того как узнал про нейросеть, буду смотреть дальше. Хочется пробовать творить что-то в таком формате который предлагает нейросеть, потому что не Художник))
Когда смотрел видео все понятно было. Начал повторять - куча вопросов, кучу всего рассказал, все смешалось. Все подробно конечно, спора нет, где-то про Арт стиль, где-то про людей. В результате многие вещи наугад делаю. Ну и результат закономерный - генерятся или вообще другие люди(даже другого пола) или если повезет генерится почти похоже, но 1 из 40 генераций. При том вот ты пишешь Young woman и стабильно хороший результат. А у меня на Young woman вообще рандомные женщины рисуются, а если дописать название гипернетворка, тогда получается 1 из 40, как уже говорил. Я наверное штук 10 гипернетворков сделал, 2 разных людей и никак. Сделай пожалуйста минут на 5 видео, как сделать гипернетворк конкретно человека. Если не захочешь час составлю список проблемных вопросов, хотя бы текстом поясни если не трудно.(на форуме наверное напишу)
Блин, ссылку на артстейшн походу обрезало... Посмотри пожалуйста в комментариях на проверке =) Просто чтобы понимал, о чем я говорю. В общем =) Пишу еще раз, но без ссылки... Во-первых, большая благодарность за то, что записал такое подробное видео, а во-вторых - вопрос =) Если у меня есть 3D-модель, моя работа в полный рост, потом closeup и прочие. Как правильно тренить? Сразу кидать все ракурсы или отдельно - лицо, отдельно - туловище и отдельно - closeup глаз там, носа и так далее? Подскажи пожалуйста. Я сейчас кинул на 10 000 шагов и все ракурсы. посмотрю, что получается.. но мало ли =) на всякий спросил =) Хорошего дня и настроения!
Блин так круто. Я обучал ( пытался обучать и получается ну мягко говоря не очень) а тут все по полкам разложили. Вы сударь ВСЕОТЕЦ !!!! Респект. Было бы круто посмотреть как можно сделать видео ( нарывался на ютубе что делают типа клипы даже)
Спасибо за видео. Но у моей видеокарты не хватает мощей(( Сделайте пожалуйста обучалку для Гугл Колаб, понятно что на своем пк лучше без посредников так сказать и т.д., но тут выбор либо вообще не как либо колаб! Думаю не только я буду вам признателен в этом!
Приветствую. Пользуюсь portable версией с Вашего канала. Два дня назад отлично получилось натренировать модель через hypernetwork по видео. Однако вчера хотел попробовать потренировать на другом человеке, но обнаружил, что из вкладки "Settings" пропали настройки hypernetwork и возможность его выбора. Также в script-> X/Y plot исчез пункт hypernetwork. С чем это может быть связано?
Решил натренировать SD на своих фото и поискав в облаке за несколько лет, нашёл подходящих штук 10. Было принято решение нащёлкать себя прямо здесь и сейчас. С футболками не заморачивался, поэтому сделал 30 фото топлес с разных ракурсов на однородном фоне... Через пару часов на отчётных картинках (которые генерировала нейронка каждые 100 кадров) смотрел проно с собственным участием.. в перемешку со шкафами и табуретками. Не все, но штук 10 попалось. И что интересно, в генерации txt2img выдавало неплохие результаты. Тот же джокер как на превью.
Так и не нашел где проверить или выключить Hypernetwork... Под кнопкой Generate нажал Shov extra а там во вкладке Hypernetworks: "Nothing here. Add some content to the following directories: C:\stable-diffusion-portable-main\models\hypernetworks" Вроде все скачал как было в видео. Куда дальше двигаться, как бороться? Спасибо за ответ :)
Скажите, пожалуйста, а у вас не было проблем с появлением hipernetwork в меню Scripts\ X/Y/Z plot после обучения? В папке на гугл диске результат убучения есть, но как подключить к обработке - не пойму!
Я, пожалуй, побил рекорд по пересматриванию этого видео. По личным ощущениям. У меня один раз получилось сделать классный гипернетворк. Работающий на 1-ом из пяти картинок. Но с 7-ой наверное попытки.
Сижу как ребенок и жду полный разбор промтов диффузии.Вопросов на самом деле много по ней. Как менять или генерить нужное освещение?Как заставить сгенерить только одного персонажа бегущего и смотрящего вправо(в профиль так сказать)Как поставить нужный объект по центру?
Хачатур, можно то же видео но по белому интерфейсу А1111? по вашим ссылкам почему- то установился белый, а не черный, как у вас. там настройки другие и в других местах
Крутой гайд, однозначно! Я все сделал, натренировал за 3ч модель, настала пора генерить и... В Х type у меня нету хайпернетворк! ахах Может где-то в настройках это отключается/включается? Нигде не могу найти
С галочкой "Read parameters (prompt, etc...) from txt2img tab when making previews" рисовал какие-то пустыни и каньоны. Снял галку- стало меня воспроизводить и читать .txt.
Здравствуйте. Спасибо за Ваши замечательные и полезные видео! Подскажите пожалуйста где лежит получившаяся модель и как её использовать для генерации изображений?
За старания спасибо, но хочу уточнить: все в интернете не просто так носятся с дримбуфом, так как он выдаёт самые качественный результат, и говорить что это костыли, а вот гипернетворк - не костыль и всё уже встроенно в SD и вам никаких дримбуфов не нужно - мягко скажем, не корректно
Антон, будьте добры дать ссылочку на туториал по Dreambooth, где вы создаёте ПЯТИ гиговый файл и он лучше даёт результат, чем Train. И ещё раз. Я разработчик, Антон. И говорю ещё раз. Dreambooth - это лишь расширение. Это как аддон, как плагин. Всё работает на движке самого Stable Diffusion. Вы видимо не поняли эту мысль и то, как это устроено. Но что самое печальное, не поняли, что Dreambooth сырое говно, которое работает через раз и не у всех. И да, это крайне костыльный метод, ибо гулять по настройкам дольше и больше. Вы думаете почему Automatic не добавил сразу в основную ветку вместе с ведущими разрабами это решение? Почему всё добавил, а это нет? А потому что говно этот Dreambooth. Пыль в глаза. Я когда-то также смотрел на Automatic и не факт, что не пересмотрю взгляды. Однако сейчас уверяю на 100%, что фокусники с RU-vid вам вешают лапшу и только Я на своей 4080 неделю выпорол все возможные варианты всех расширений и средств. Включая LORA, Colab и Dreambooth. Надёжнее, быстрее и точнее делают алгоритмы на чистом Stable от Automatic1111. И да, Антон, не сочтите за грубость, но Вы довольно точно описали положение дел: _все носятся с этим Dreamboth_ Один копирует туториал другого и никто мать его не разбирается ни в Rate, ни в разрешении, ни в том, как происходит запись в файл, ни то, как нейросеть в принципе считает то, что ей дают.
Как всегда потрясающе. Посмотрел три видео на одном дыхании. Жаль только нет времени пробовать. Даже послушал некоторые комментарии. В частности очень полезный от Denis Evdokimov . Правда жалею что не делал скриншоты. Что теперь делать пересматривать заново, но уже на первой скорости И походу ставить все галочки? Нет какой-то возможности повторить всё одним махом? Может какой-то экспорт настроек от метро - Хачатура, или кого-нибудь другого. Чтобы нигде не ошибиться и по 100 раз не переделывать, а просто вставить свои фотографии и нажать старт.
Привет! Большое спасибо за видео. Есть такой вопрос. Видео было записано еще до релиза модели Deliberate, и hypernetwork тренирует на модели f222. Имеет ли смысл при создании hypernetwork сейчас использовать уже Deliberate?
Привет 🖐 На данный момент людей и персонажей лучше делать в LORA. Посмотрите видео: ru-vid.com/group/PL05SB3rBbUsprkMgH3yDV12MuuIbO5KEq Оно так и называется LoRA. На превью традиционно Я в роли Джокера.
Здравствуй! Я понимаю, что моя просьба не имеет отношения к теме видео - но всё-же хотел попросить кое-о чём: Я думаю было бы полезно снять видео про флаги у Enum'ов (аттрибут [Flags]), которое было бы в плейлисте с уроками по C#, так как я заметил что некоторые люди создают куча полей типа bool, когда можно элегентно обойтись одной переменной с этими самыми флагами!
Христ, спасибо за шикарнейшие видосы! Вопрос: в видосе использовали модель f222_v1, вчера качнул и использую deliberate_v2, можно ли обучать на deliberate_v2. Это первый вопрос. Еще один: можно ли отдельно обучить руки (фоткаем руки) и лица (соответственно лицо крупным планом). Ну и финальный: проходят ли встречи в мск, с удовольствием бы встретился и посидел)
Круто! Запустил обучение. Находил гайд через дримбут, но получилось плохо. Поглядим, что будет в результате этого урока. Но судя по картинкам уже сейчас выходит намного круче )
Подскажите, пожалуйста, почему после Train не появляется Hipernetwork в меню: Script\ X/Y/Z plot ? Использую Google Colab. Может надо руками перенести созданные файлы?
Applying xformers cross attention optimization после окончания обучения уже больше 5 часов, интерфейс не запускается. Тренировал через гугл colab. Когда оптимизирует и стоит ли вообще ждать? Вообще когда тренированая модель считается законченной и можно отрубать скрипт, перезапускать и начинать пользоваться натренированной моделью?
23:06 Я заметил, что галка перезаписывает только .pt файл с самой гиперсетью, а прилагаемый к ней optim-файл (если он создан во время обучения) не перезаписывает. Если его не удалить вручную, то обучение новой гиперсети начнётся с шага, записанного в optim-файле.
а как обучать на несколько людей, может быть можно давать им имена? например чтобы обучить всех олег, анна, николай. чтобы потом генерировать фото с ними вместе "олег и анна на коне"
Если ставить галочку на Blip for Caption, то создаётся текстовый файл, где можно править эти значения. Главное, чтобы именно люди были прописаны на вкладке txt2img.
В последний версии hypernetwork вызывается через поле с Promtp-ами. А вы говорили о переобучении на основе старого фильтра hypernetwork, после обновления в ui так делать невозможно?
Спасибо за обзор, хорошо и детально получилось, но хотел бы уточнить. Что LoRa и через колаб это не совсем надстройки. Колаб позволяет делать то же самое но на бесплатных серверах гугл с мощными видеокартами, что бы не насиловать свой пк и делать это быстрее. LoRa - это другая техника fine-tuning`а при котором мы добавляет новые матрицы весов меньшего ранга в слои нейронки и обучаем только их. То есть сеть меняет свою архитектуру и за счёт малого ранга матрицы весов - мы можем их разложить на произведение других, что даст бОльшую скорость обучения
Здравствуйте. А на train можно тренировать только людей, или подойдут фоны без персонажей в простом мультяшном стиле тоже? Как я понял, create hypernetwork - как раз для меня подходит, то есть Train во вкладке train не нужен?
Привет, хотел задать вопрос, как отредактировать твой Negative prompt по умолчанию? Просто мне нужны другие параметры, а постоянно менять при запуске не хочется