Тёмный

You can create illustrations with your favorite characters! Study Explanation about LoRA 

ゆっくり日常の疑問解決美少女
Подписаться 4,8 тыс.
Просмотров 22 тыс.
50% 1

AIイラストはキャラの固定が難しいのですが、LoRA学習である程度は固定して描いてもらうことができます。
毎回完全一致とする手法はまだなさそうですが、そのための一歩となればいいなと思います。
間違いや解釈違いがありましたらすみません。
↓インストール方法が変更になってみたいでこちらで新しく解説しています。
• LoRA学習用kohya_ss GUIインス...
ユニティちゃんライセンス条項にのっとりユニティちゃんを使用しています。
© Unity Technologies Japan/UCL
ツイッターアカウント
/ bisyoujogimonch
■参考データ
徒労日記様
StableなLoRA学習環境がローカルマシンでもできるKohya’s GUIの設定方法
dolls.tokyo/ab...
■作業手順
□A.環境構築
1.フォルダを作成する(日本語なし、パスにも日本語が入らないようにする)
ここでは仮に「kohya」とする
2.Power shellを管理者として実行
3.kohyaフォルダへ移動し、ルートパスをコピー
4.Power shellで
cd (kohyaまでのルートパス)
と入力し、エンターでディレクトリ移動。
5.kohyaフォルダへの実行ポリシーを変える。
 セキュリティに関わることなので自己責任でお願いします。
プログラム1
Set-ExecutionPolicy Unrestricted
のコマンドを入力してエンター。
6.LoRA学習に必要なデータをダウンロード。
以下のプログラム2をまとめて貼り付け。
URLが省略されて表示されるかもしれないので、コメント欄にも貼っておきます。
プログラム2
git clone github.com/bma...
cd kohya_ss
python -m venv venv
.\venv\Scripts\activate
pip install torch==1.12.1+cu116 torchvision==0.13.1+cu116 --extra-index-url download.pytor...
pip install --use-pep517 --upgrade -r requirements.txt
pip install -U -I --no-deps github.com/C43...
cp .\bitsandbytes_windows\*.dll .\venv\Lib\site-packages\bitsandbytes\
cp .\bitsandbytes_windows\cextension.py .\venv\Lib\site-packages\bitsandbytes\cextension.py
cp .\bitsandbytes_windows\main.py .\venv\Lib\site-packages\bitsandbytes\cuda_setup\main.py
accelerate config
7.設定の質問に答える
プログラム2を実行すると最後に設定の質問が出てきますので、以下の通りに回答。
*This mashine →Enter
*No distributed training → Enter
Do you want to run your training on CPU only (even if a GPU is available?)
→no と入力後 Enter
Do you wish to optimize your script with torch dynamo?
→no と入力後 Enter
Do you want to use DeepSpeed?
→no と入力後 Enter
What GPU(s) (by id) should be used for training on this machine as a comma-seperated list?
→all と入力後 Enter
次の問いは最初はnoが選択されている。
*no
fp16
bf16
キーボードの1キーを押すとfp16が選択される。
以下のようになったらEnter
no
*fp166
bf16
設定の質問は以上です。
▼オプションプログラム
ttps://mega.nz/file/bZdAnAKa#BidEndlxBu2bw-K7pj4x1bOeYC4t4AbDkyOKiZNpEZ4
インストールコマンド
python .\tools\cudann_1.8_install.py
8.アップグレードの実行
kohya

kohya_ssを開く
upgrade.ps1をダブルクリックして実行。
メモ帳が開いてしまうなどしてしまったら
代わりに
upgrade.batをダブルクリックして実行
9.学習ツールの起動
kohya_ssの中にある
gui.ps1をダブルクリックして実行。
メモ帳が開いてしまうなどしてしまったら
代わりに
gui.batをダブルクリックして実行
コマンドプロンプトが開いたら
Running on local URL:をCtrlキーを押しながらクリックで学習ツールが開きます。
ここまでで環境構築は終わりです。
□B.学習画像の準備
1.学習させたいキャラの画像を用意する。
ここではキャラの画像を「教師画像」とする。
教師画像の条件
a.キャラが単体で写っている
b.キャラが色んなポーズをとっている
c.背景も別のものが写っている
2.教師画像をフォルダに入れる
教師画像が入るフォルダを「教師画像フォルダ」とする
「教師画像フォルダ」の上のフォルダを「教師上位フォルダ」とする。
「教師上位フォルダ」→名前は何でもよい。
「教師画像フォルダ」→命名規則がある
☆命名規則
仮に以下のようだとする
20_isi girl
数字は画像に対する学習回数→大きいほど深く学習
isi→教師画像群に対する名前。意味のない単語がよい
girl→教師画像を生成するプロンプト(?)
この3つの要素をそれぞれ用途に合わせて設定する。
「教師上位フォルダ」の中に「教師画像フォルダ」を入れる。
3.正則化画像を用意する(必要なければなくてもよい)
正則化画像の条件
a.学習させたいモデルを使用して生成する
b.教師画像を生成するプロンプトで画像を生成
例:chilloutmixのモデルに、女の子キャラを学習させたいなら
model:chilloutmix
プロンプト:girl
で生成する
教師画像の枚数×5
くらいの枚数があるとよい。
教師画像が20枚なら正則化画像は100枚
4.正則化画像をフォルダに入れる
正則化画像が入るフォルダを「正則化画像フォルダ」とする
「正則化画像フォルダ」の上のフォルダを「正則化上位フォルダ」とする。
「正則化上位フォルダ」→名前は何でもよい。
「正則化画像フォルダ」→命名規則がある
☆命名規則
仮に以下のようだとする
1_girl
数字は画像に対する学習回数→1でよい
girl→正則化画像を生成するプロンプト
プロンプトだけ教師画像フォルダと合わせるようにする
「正則化上位フォルダ」の中に「正則化画像フォルダ」を入れる。
□C.学習ツールを使用してモデル生成
学習ツールを起動する
1.教師画像にキャプションをつける
utilities

Captioning

BLIP Captioning
image folder to captionに「教師画像フォルダ」を指定する
Prefix to add to BLIP caption
に教師画像につけた名前を指定する
Caption imagesをクリック
2.キャプションを編集する(しなくても何とかなる)
「教師画像フォルダ」にテキスト形式のキャプションファイルが生成されているので編集する。
isi a woman in a blue dress and striped stocking
となっていれば要素をカンマで区切る
isi,woman,blue dress,striped stocking
さらに「強調して学習して欲しい要素をけずる」
striped stockingを学習してほしかったらstriped stockingを消す。
isi,woman,blue dress,
このようなキャプションになったら保存。
3.設定済み環境ファイルを読み込む。
▼標準設定用
ttps://mega.nz/file/ndFRwTIB#-T-6AKXtK8Xa8VZGzNAjARNUyGTj2qEYSLp7zePDOIs
▼低VRAM用
ttps://mega.nz/file/zFNjlJAL#uB2uTAvcqLohSUzYBgtuBcAMt4Jnclg6jVV5YE4s0F4
パソコンのスペックに応じた環境ファイルをダウンロードしてください。
Dreambooth LoRA

Configration file

Open
ダウンロードした環境ファイルを読み込む。
4.学習モデルの指定
Dreambooth LoRA

Source model
学習させたいモデルを指定。
chilloutmixなど。
5.学習素材のファイルを指定
Dreambooth LoRA

Folders
☆Image folder→「教師上位フォルダ」を指定
☆Output folder→\stable-diffusion-webui\models\Lora
☆Regularization folder→「正則化上位フォルダ」を指定
 (なくてもよい)
☆Logging folder→どこでも
Train modelをクリックして学習開始
□D.学習モデルの使用
1.追加機能の導入
Extensions

Available

Load from
表示される一覧の中から
sd-web-ui-additional-networks
を探して右側にあるInstallをクリック
上部に戻ってInstalledタブをクリック
Apply and restart UIをクリック
2.学習モデルを使用
Generateボタンの下の花札アイコンをクリック
表示されたLoraタブをクリック。
モデルカードが出ない時はRefreshをクリック。
モデルカードが出たらクリックするとプロンプトに、モデル使用のプロンプトが追加される。
生成。
お疲れさまでした。
■お借りした素材
★SDピコピコ結月ゆかりちゃん立ち絵
かみち様
seiga.nicovide...
もえそで結月ゆかりちゃん立ち絵
かみち様
seiga.nicovide...
★紲星あかり(デフォルメ)Ver001
aikawa_D 様
seiga.nicovide...
★BGM
DOVA-SYNDROME様
dova-s.jp/

Опубликовано:

 

30 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 72   
@ゆっくり日常の疑問解決美
6月25日追記 インストール方法が変更になったみたいでこちらで解説しています。 ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-jjlilbJJk00.html プログラム2 git clone github.com/bmaltais/kohya_ss.git cd kohya_ss python -m venv venv .\venv\Scripts\activate pip install torch==1.12.1+cu116 torchvision==0.13.1+cu116 --extra-index-url download.pytorch.org/whl/cu116 pip install --use-pep517 --upgrade -r requirements.txt pip install -U -I --no-deps github.com/C43H66N12O12S2/stable-diffusion-webui/releases/download/f/xformers-0.0.14.dev0-cp310-cp310-win_amd64.whl cp .\bitsandbytes_windows\*.dll .\venv\Lib\site-packages\bitsandbytes\ cp .\bitsandbytes_windows\cextension.py .\venv\Lib\site-packages\bitsandbytes\cextension.py cp .\bitsandbytes_windows\main.py .\venv\Lib\site-packages\bitsandbytes\cuda_setup\main.py accelerate config 設定済み環境ファイル(.jsonをつけて保存してください) ▼標準設定用 { "pretrained_model_name_or_path": "runwayml/stable-diffusion-v1-5", "v2": false, "v_parameterization": false, "logging_dir": "C:/Users/ohmni/AI/SAMPLE IMAGES/ADAMS/LORA OUTPUT/log", "train_data_dir": "C:/Users/ohmni/AI/SAMPLE IMAGES/ADAMS/LORA OUTPUT/img", "reg_data_dir": "", "output_dir": "C:/Users/ohmni/AI/SAMPLE IMAGES/ADAMS/LORA OUTPUT/model", "max_resolution": "512,512", "learning_rate": "0.0001", "lr_scheduler": "constant", "lr_warmup": "0", "train_batch_size": 2, "epoch": "1", "save_every_n_epochs": "1", "mixed_precision": "bf16", "save_precision": "bf16", "seed": "1234", "num_cpu_threads_per_process": 2, "cache_latents": true, "caption_extension": ".txt", "enable_bucket": false, "gradient_checkpointing": false, "full_fp16": false, "no_token_padding": false, "stop_text_encoder_training": 0, "use_8bit_adam": true, "xformers": true, "save_model_as": "safetensors", "shuffle_caption": false, "save_state": false, "resume": "", "prior_loss_weight": 1.0, "text_encoder_lr": "5e-5", "unet_lr": "0.0001", "network_dim": 128, "lora_network_weights": "", "color_aug": false, "flip_aug": false, "clip_skip": 2, "gradient_accumulation_steps": 1.0, "mem_eff_attn": false, "output_name": "Addams", "model_list": "runwayml/stable-diffusion-v1-5", "max_token_length": "75", "max_train_epochs": "", "max_data_loader_n_workers": "1", "network_alpha": 128, "training_comment": "", "keep_tokens": "0", "lr_scheduler_num_cycles": "", "lr_scheduler_power": "" } ▼低VRAM用 { "pretrained_model_name_or_path": "runwayml/stable-diffusion-v1-5", "v2": false, "v_parameterization": false, "logging_dir": "C:/Users/ohmni/AI/SAMPLE IMAGES/ADAMS/LORA OUTPUT/log", "train_data_dir": "C:/Users/ohmni/AI/SAMPLE IMAGES/ADAMS/LORA OUTPUT/img", "reg_data_dir": "", "output_dir": "C:/Users/ohmni/AI/SAMPLE IMAGES/ADAMS/LORA OUTPUT/model", "max_resolution": "512,512", "learning_rate": "0.0001", "lr_scheduler": "constant", "lr_warmup": "0", "train_batch_size": 1, "epoch": "1", "save_every_n_epochs": "1", "mixed_precision": "fp16", "save_precision": "fp16", "seed": "1234", "num_cpu_threads_per_process": 2, "cache_latents": true, "caption_extension": ".txt", "enable_bucket": false, "gradient_checkpointing": true, "full_fp16": false, "no_token_padding": false, "stop_text_encoder_training": 0, "use_8bit_adam": true, "xformers": true, "save_model_as": "safetensors", "shuffle_caption": false, "save_state": false, "resume": "", "prior_loss_weight": 1.0, "text_encoder_lr": "5e-5", "unet_lr": "0.0001", "network_dim": 128, "lora_network_weights": "", "color_aug": false, "flip_aug": false, "clip_skip": 2, "gradient_accumulation_steps": 1.0, "mem_eff_attn": true, "output_name": "Addams", "model_list": "runwayml/stable-diffusion-v1-5", "max_token_length": "75", "max_train_epochs": "", "max_data_loader_n_workers": "1", "network_alpha": 128, "training_comment": "", "keep_tokens": "0", "lr_scheduler_num_cycles": "", "lr_scheduler_power": "" }
@熊猫-x2h
@熊猫-x2h Год назад
インストール方法が変更になってて若干混乱したけどだいぶ参考になりました。 他サイトのはもうエラーが出て進めなくなっちゃったので途方に暮れてましたが、こちらを参考にして学習成功しました。 ありがとう、ありがとう、ありがとう。
@ゆっくり日常の疑問解決美
いえ、うまくいったなら何よりです。 熊猫さんの諦めない頑張りが実ったのだと思います。 インストール方法も変更になったようで、熊猫さんや他の方から教えていただくまで知りませんでした。 変更になった方法も動画にしようと思っていますので、教えてくださってありがとうございます。 私も別のLoRA学習方法を試したのですが、何回か失敗しまして…。 きっと相性とかあるんでしょうね…。 わかりませんけど。
@_baaan6647
@_baaan6647 Год назад
いつも分かりやすい解説ありがとうございます! とりあえず素材集めからになりますが、準備ができ次第何回も見直しますよっと…
@ゆっくり日常の疑問解決美
いえ、今回はフォルダの構成が少しだけ複雑だったので、つまずく人が多いかもなぁと思って解説してみました。 私もこの方法を知るまでは3回くらい失敗してます…。 せっかくの楽しい機能なのでほかの方もめげずに導入できたらいいなと思います。 _ BаaaaNさんももし素材の準備が出来たらお試しくださいませ。
@中山主水
@中山主水 Год назад
正直ここまでクダケテかつ詳しく解説して頂けてホンマにありがたいです!これをマスターすれば憧れのあの娘を・・・所で、麻雀覚えるキッカケがゲームセンターのホット◯ギミックとかあるあるですしやっぱERoは技術と知識を発展する大きなキッカケなんやなってハッキリワカンだね!!
@ゆっくり日常の疑問解決美
やっぱ~のくだりからもう全面同意ですね(笑) ただ、やり方を紹介しているだけで、私も内容をすべて理解しているわけではないので、ほかの方がうまくいかなかったときのサポートがなかなかできなくて、その点はやや心苦しかったりします…。
@でんでん-h2l2p
@でんでん-h2l2p Год назад
詳しい解説ありがとうございます! 古いマシンでグラボがGTX1070Tiだったのでエラーにつぐエラーの繰り返しだったのですが 2日かけて1つずつ修正していってなんとか最後まで動かせました よく分からずに追加でインストールやアップデートを繰り返した結果、 動作がおかしくなって本体丸ごとインストールし直しになりましたが(笑) 教師データの選定や学習タグの選び方が悪いので完全に過学習の症状でしたが 自分が作りたいキャラのLORAが確かに出来て感動でした ありがとうございました
@ゆっくり日常の疑問解決美
いえ、うまくいって何よりです。 導入お疲れさまでした。 私も失敗してうまくいかなくて何回か一からやり直すってことを繰り返したのででんでんさんの気持ちわかります。 苦労してできるようになると嬉しいですよね。 私はまだLoRAは活用できてないのですが…。 導入しただけで(笑) 楽しんでくださいませ~。
@tyusRRs
@tyusRRs Год назад
分かりやすい解説ありがとうございました!半日もかかりましたが無事にLora学習させることが出来ました( ;∀;) 2回目にnoise_offset 0か1の間というエラーがでましたが動画にあったsampleフォルダ削除で解決できました。でも、loraフォルダ内に作成されてたんですよね(最初からあったのか不明w
@ゆっくり日常の疑問解決美
導入お疲れさまでした。 いったん成功できれば、あとはフォルダ内の画像をがさっと入れ替えるだけで、新しく学習できるので、今後はスムーズに学習できるかと思います。 実はsampleフォルダは色んな所に出来ることがあって、教師画像フォルダ以外にも作成されていました。 ただ、何度か再現を試みたのですが、教師画像フォルダに作成されることが多かったので、教師画像フォルダということに…。 記憶がおぼろげだったので、確定している場所だけ案内しちゃいました。 作成されるタイミングによって場所が異なるんですかね…。 とりあえず、sampleフォルダは削除ってことで(笑) キャラのカスタマイズ楽しんでくださいませ~。
@Y8L00
@Y8L00 Год назад
ついにLora学習ですか、以前のポーズが役立ってますね~ 私の環境はRX580だから学習を諦めるしかないのが(´;ω;`) 普通にLoraを組み込むと512x800ピクセルくらいが限界になってしまうw
@ゆっくり日常の疑問解決美
シェー!って結構汎用性があるポーズなのかなって再認識です(笑) 棒立ちよりも多少ポーズとってた方がいいと思います。 あとは他にポーズが思いつかなかっただけなんですけど(笑) ポーズ指定もできて、絵柄も多少固定できるようになったので、あとはこれをツールとして使って、何か面白い表現が出来たらいいかなと思っています。 ハードの性能でできることが制限されてしまうのが難点ですね…。 性能が上がって、価格が廉価になるか、あるいは何かしらのアルゴリズムの発達で性能がそこまで高くないようなパソコンでも使えるようになるといいですよね…。 次のテーマとしては 今話題のあのAI動画みたいなものを作れるようになれるといいなあと思っています。
@nusantarajp6545
@nusantarajp6545 Год назад
LoRa学習のネックは素材探しですかねぇ… 時間が取れたら導入してみたいと思います! というか、ローカル環境で実行できるAIがいっぱいあってあれもこれもと手を出してしまっています SDをローカルに構築したからこそ、他のAIを導入するのも理解が出来ました、ありがとうございます これからも動画をチェックしますので投稿頑張って下さい👍
@ゆっくり日常の疑問解決美
学習素材は確かにそうかもしれませんね。 ただ、6面図をAIイラストで作れそうなので、正面を作り込むことで何とかならないかなぁなんて思っています。 試していないので構想段階ですが。 ほかのAIも導入されているんですね。 他のも試してみたいと思いつつ、まだ触っていません…。 そのうち触る機会があるかもしれませんが…。 更新はゆっくりなので、またたまにいらしてくださいませ。
@しゅしゅしゅのチャンネル
正則化画像のフォルダ名について、例えばセーラー服のような2単語の場合はどうすれば良いのでしょうか? 1_sailor unifrom なのか 1_sailorunifrom なのか 1_sailor_uniform なのか。 それとも他の方法なのか、ご存知であれば教えていただけると嬉しいです。
@ゆっくり日常の疑問解決美
なるほど、2単語は気が付きませんでした。 少し調べてみましたが、複数単語を扱った正則化画像フォルダの規則はわかりませんでした。 ここからは@user-co1cw7cx8iさんが意図した回答ではないかもしれませんが、sailoruniformとつなげたプロンプトでイラストを生成した時にきちんとセーラー服を着たキャラを描いてくれました。 なので、2単語で表現しているような事柄(今回は「sailor」「uniform」ですね)でも、つなげてプロンプトとした場合に認識してくれるなら、正則化画像フォルダの方もつなげた表現でいいのではないかと思います。 セーラー服の正則化画像フォルダは 1_sailorunifrom の表現で大丈夫かと思います。 bus stop light blue hair Bulletin board 等のような他の複数単語で表現するようなものも試してみましたが、 busstop lightblue hair Bulletinboard すべて縮めた単語にしても認識してくれました。 なので、2語以上で表現しているものについては、いったんスペースなしでつなげた単語で生成してみて、意図しているイメージを生成してくれたなら、正則化画像フォルダもつなげた単語でいいかと思います。 ご期待に沿うような回答か不安ですが…。
@しゅしゅしゅのチャンネル
@@ゆっくり日常の疑問解決美 丁寧なご返信いただきありがとうございます。 確かに2単語繋げても認識されるのであれば、それで問題なさそうですね。 一度繋げたもので試してみます!
@ゆっくり日常の疑問解決美
@@しゅしゅしゅのチャンネル 狙ったような学習ができるといいですね。 うまくいくことを祈っております!
@こたつ-y5s
@こたつ-y5s Год назад
コメント失礼します。 18:50 みたいにクリックして待ったのですがフォルダ内にテキストファイルが生成されません。
@ゆっくり日常の疑問解決美
コマンドプロンプトにエラー表示はされますか? キャプションファイルが生成されるとコマンドプロンプトには ...captioning done の文字が表示されます。 この文字が出ていなければ不具合が起きていることになります。 1.ファイルがあるフォルダをきちんと指定しているか確認する。 2.パソコンを再起動してからもう一度Caption imagesをクリックしてみる。 3.教師画像の数を減らしてみる くらいしか思いつきませんが…。 お試しくださいませ。
@nonema9195
@nonema9195 Год назад
プログラム2がコメント欄に見当たらないのですが・・・?←概要欄のコピペでいけました。 MEGAのリンク先に飛ぶとキーを要求されてダウンロードできないんですけどどうすればいいんでしょうか?
@ゆっくり日常の疑問解決美
コメントをもしかして自分で消してしまったか、それとも何かしらの力で消えてしまったのかもしれません。 申し訳ありません。 コメントは追加しておきましたが、こちらにも貼り付けておきますね。 また、新しい導入方法に変更になっていますので、この動画の方法がうまくいかないようでしたら、 ↓こちらの動画の方法が参考になるかもしれません。 ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-jjlilbJJk00.html 設定ファイルは拡張子を「.json」にして保存してください。 ▼標準設定用 { "pretrained_model_name_or_path": "D:/SDUI/stable-diffusion-webui/models/Stable-diffusion/chilloutmix_NiPrunedFp32Fix.safetensors", "v2": false, "v_parameterization": false, "logging_dir": "D:/SDUI/stable-diffusion-webui/Kohya/logging", "train_data_dir": "D:/SDUI/stable-diffusion-webui/teacher", "reg_data_dir": "D:/SDUI/stable-diffusion-webui/regular/1_girl", "output_dir": "D:/SDUI/stable-diffusion-webui/teacher", "max_resolution": "512,512", "learning_rate": "0.0001", "lr_scheduler": "constant", "lr_warmup": "0", "train_batch_size": 2, "epoch": 1, "save_every_n_epochs": 1, "mixed_precision": "bf16", "save_precision": "bf16", "seed": "1234", "num_cpu_threads_per_process": 2, "cache_latents": true, "caption_extension": ".txt", "enable_bucket": false, "gradient_checkpointing": false, "full_fp16": false, "no_token_padding": false, "stop_text_encoder_training": 0, "xformers": true, "save_model_as": "safetensors", "shuffle_caption": false, "save_state": false, "resume": "", "prior_loss_weight": 1.0, "text_encoder_lr": "5e-5", "unet_lr": "0.0001", "network_dim": 128, "lora_network_weights": "", "color_aug": false, "flip_aug": false, "clip_skip": 2, "gradient_accumulation_steps": 1.0, "mem_eff_attn": false, "output_name": "chill_unity", "model_list": "custom", "max_token_length": "75", "max_train_epochs": "", "max_data_loader_n_workers": "1", "network_alpha": 128, "training_comment": "", "keep_tokens": "0", "lr_scheduler_num_cycles": "", "lr_scheduler_power": "", "persistent_data_loader_workers": false, "bucket_no_upscale": true, "random_crop": false, "bucket_reso_steps": 64.0, "caption_dropout_every_n_epochs": 0.0, "caption_dropout_rate": 0, "optimizer": "AdamW8bit", "optimizer_args": "", "noise_offset": "", "LoRA_type": "Standard", "conv_dim": 1, "conv_alpha": 1, "sample_every_n_steps": 0, "sample_every_n_epochs": 0, "sample_sampler": "euler_a", "sample_prompts": "", "additional_parameters": "", "vae_batch_size": 0, "min_snr_gamma": 0, "down_lr_weight": "", "mid_lr_weight": "", "up_lr_weight": "", "block_lr_zero_threshold": "", "block_dims": "", "block_alphas": "", "conv_dims": "", "conv_alphas": "", "weighted_captions": false } ▼低VRAM用 { "pretrained_model_name_or_path": "runwayml/stable-diffusion-v1-5", "v2": false, "v_parameterization": false, "logging_dir": "C:/Users/oracl/Desktop/SDUI/stable-diffusion-webui/kohya", "train_data_dir": "C:/Users/oracl/Desktop/SDUI/stable-diffusion-webui/kohya/teacher", "reg_data_dir": "C:/Users/oracl/Desktop/SDUI/stable-diffusion-webui/kohya/regular", "output_dir": "C:/Users/oracl/Desktop/SDUI/stable-diffusion-webui/models/Lora", "max_resolution": "512,512", "learning_rate": "0.0001", "lr_scheduler": "constant", "lr_warmup": "0", "train_batch_size": 1, "epoch": 1, "save_every_n_epochs": 1, "mixed_precision": "fp16", "save_precision": "fp16", "seed": "1234", "num_cpu_threads_per_process": 2, "cache_latents": true, "caption_extension": ".txt", "enable_bucket": false, "gradient_checkpointing": true, "full_fp16": false, "no_token_padding": false, "stop_text_encoder_training": 0, "xformers": true, "save_model_as": "safetensors", "shuffle_caption": false, "save_state": false, "resume": "", "prior_loss_weight": 1.0, "text_encoder_lr": "5e-5", "unet_lr": "0.0001", "network_dim": 128, "lora_network_weights": "", "color_aug": false, "flip_aug": false, "clip_skip": 2, "gradient_accumulation_steps": 1.0, "mem_eff_attn": true, "output_name": "zunzun-saku", "model_list": "runwayml/stable-diffusion-v1-5", "max_token_length": "75", "max_train_epochs": "", "max_data_loader_n_workers": "1", "network_alpha": 128, "training_comment": "", "keep_tokens": "0", "lr_scheduler_num_cycles": "", "lr_scheduler_power": "", "persistent_data_loader_workers": false, "bucket_no_upscale": true, "random_crop": false, "bucket_reso_steps": 64.0, "caption_dropout_every_n_epochs": 0.0, "caption_dropout_rate": 0, "optimizer": "AdamW8bit", "optimizer_args": "", "noise_offset": "", "LoRA_type": "Standard", "conv_dim": 1, "conv_alpha": 1, "sample_every_n_steps": 0, "sample_every_n_epochs": 0, "sample_sampler": "euler_a", "sample_prompts": "", "additional_parameters": "", "vae_batch_size": 0, "min_snr_gamma": 0, "down_lr_weight": "", "mid_lr_weight": "", "up_lr_weight": "", "block_lr_zero_threshold": "", "block_dims": "", "block_alphas": "", "conv_dims": "", "conv_alphas": "", "weighted_captions": false, "unit": 1, "save_every_n_steps": 0, "save_last_n_steps": 0, "save_last_n_steps_state": 0 } cudnnのダウンロード先 github.com/bmaltais/kohya_ss#optional-cudnn-86
@ゆっくり日常の疑問解決美
設定ファイルは拡張子を「.json」にして保存してください。 ▼標準設定用 { "pretrained_model_name_or_path": "D:/SDUI/stable-diffusion-webui/models/Stable-diffusion/chilloutmix_NiPrunedFp32Fix.safetensors", "v2": false, "v_parameterization": false, "logging_dir": "D:/SDUI/stable-diffusion-webui/Kohya/logging", "train_data_dir": "D:/SDUI/stable-diffusion-webui/teacher", "reg_data_dir": "D:/SDUI/stable-diffusion-webui/regular/1_girl", "output_dir": "D:/SDUI/stable-diffusion-webui/teacher", "max_resolution": "512,512", "learning_rate": "0.0001", "lr_scheduler": "constant", "lr_warmup": "0", "train_batch_size": 2, "epoch": 1, "save_every_n_epochs": 1, "mixed_precision": "bf16", "save_precision": "bf16", "seed": "1234", "num_cpu_threads_per_process": 2, "cache_latents": true, "caption_extension": ".txt", "enable_bucket": false, "gradient_checkpointing": false, "full_fp16": false, "no_token_padding": false, "stop_text_encoder_training": 0, "xformers": true, "save_model_as": "safetensors", "shuffle_caption": false, "save_state": false, "resume": "", "prior_loss_weight": 1.0, "text_encoder_lr": "5e-5", "unet_lr": "0.0001", "network_dim": 128, "lora_network_weights": "", "color_aug": false, "flip_aug": false, "clip_skip": 2, "gradient_accumulation_steps": 1.0, "mem_eff_attn": false, "output_name": "chill_unity", "model_list": "custom", "max_token_length": "75", "max_train_epochs": "", "max_data_loader_n_workers": "1", "network_alpha": 128, "training_comment": "", "keep_tokens": "0", "lr_scheduler_num_cycles": "", "lr_scheduler_power": "", "persistent_data_loader_workers": false, "bucket_no_upscale": true, "random_crop": false, "bucket_reso_steps": 64.0, "caption_dropout_every_n_epochs": 0.0, "caption_dropout_rate": 0, "optimizer": "AdamW8bit", "optimizer_args": "", "noise_offset": "", "LoRA_type": "Standard", "conv_dim": 1, "conv_alpha": 1, "sample_every_n_steps": 0, "sample_every_n_epochs": 0, "sample_sampler": "euler_a", "sample_prompts": "", "additional_parameters": "", "vae_batch_size": 0, "min_snr_gamma": 0, "down_lr_weight": "", "mid_lr_weight": "", "up_lr_weight": "", "block_lr_zero_threshold": "", "block_dims": "", "block_alphas": "", "conv_dims": "", "conv_alphas": "", "weighted_captions": false } ▼低VRAM用 { "pretrained_model_name_or_path": "runwayml/stable-diffusion-v1-5", "v2": false, "v_parameterization": false, "logging_dir": "C:/Users/oracl/Desktop/SDUI/stable-diffusion-webui/kohya", "train_data_dir": "C:/Users/oracl/Desktop/SDUI/stable-diffusion-webui/kohya/teacher", "reg_data_dir": "C:/Users/oracl/Desktop/SDUI/stable-diffusion-webui/kohya/regular", "output_dir": "C:/Users/oracl/Desktop/SDUI/stable-diffusion-webui/models/Lora", "max_resolution": "512,512", "learning_rate": "0.0001", "lr_scheduler": "constant", "lr_warmup": "0", "train_batch_size": 1, "epoch": 1, "save_every_n_epochs": 1, "mixed_precision": "fp16", "save_precision": "fp16", "seed": "1234", "num_cpu_threads_per_process": 2, "cache_latents": true, "caption_extension": ".txt", "enable_bucket": false, "gradient_checkpointing": true, "full_fp16": false, "no_token_padding": false, "stop_text_encoder_training": 0, "xformers": true, "save_model_as": "safetensors", "shuffle_caption": false, "save_state": false, "resume": "", "prior_loss_weight": 1.0, "text_encoder_lr": "5e-5", "unet_lr": "0.0001", "network_dim": 128, "lora_network_weights": "", "color_aug": false, "flip_aug": false, "clip_skip": 2, "gradient_accumulation_steps": 1.0, "mem_eff_attn": true, "output_name": "zunzun-saku", "model_list": "runwayml/stable-diffusion-v1-5", "max_token_length": "75", "max_train_epochs": "", "max_data_loader_n_workers": "1", "network_alpha": 128, "training_comment": "", "keep_tokens": "0", "lr_scheduler_num_cycles": "", "lr_scheduler_power": "", "persistent_data_loader_workers": false, "bucket_no_upscale": true, "random_crop": false, "bucket_reso_steps": 64.0, "caption_dropout_every_n_epochs": 0.0, "caption_dropout_rate": 0, "optimizer": "AdamW8bit", "optimizer_args": "", "noise_offset": "", "LoRA_type": "Standard", "conv_dim": 1, "conv_alpha": 1, "sample_every_n_steps": 0, "sample_every_n_epochs": 0, "sample_sampler": "euler_a", "sample_prompts": "", "additional_parameters": "", "vae_batch_size": 0, "min_snr_gamma": 0, "down_lr_weight": "", "mid_lr_weight": "", "up_lr_weight": "", "block_lr_zero_threshold": "", "block_dims": "", "block_alphas": "", "conv_dims": "", "conv_alphas": "", "weighted_captions": false, "unit": 1, "save_every_n_steps": 0, "save_last_n_steps": 0, "save_last_n_steps_state": 0 } cudnnのダウンロード先 github.com/bmaltais/kohya_ss#optional-cudnn-86 プログラム2 git clone github.com/bmaltais/kohya_ss.git cd kohya_ss python -m venv venv .\venv\Scripts\activate pip install torch==1.12.1+cu116 torchvision==0.13.1+cu116 --extra-index-url download.pytorch.org/whl/cu116 pip install --use-pep517 --upgrade -r requirements.txt pip install -U -I --no-deps github.com/C43H66N12O12S2/stable-diffusion-webui/releases/download/f/xformers-0.0.14.dev0-cp310-cp310-win_amd64.whl cp .\bitsandbytes_windows\*.dll .\venv\Lib\site-packages\bitsandbytes\ cp .\bitsandbytes_windows\cextension.py .\venv\Lib\site-packages\bitsandbytes\cextension.py cp .\bitsandbytes_windows\main.py .\venv\Lib\site-packages\bitsandbytes\cuda_setup\main.py accelerate config
@吉音
@吉音 Год назад
この動画は本当にめちゃくちゃ参考になりました。ありがとうございます!ちなみにまだ自分でやってもうまくはいってませんが、キャラ学習って元のキャラと性別を合わせる必要は絶対あるんですか?例えば男の服を女の子に着せるとかは無理なんでしょうか?
@ゆっくり日常の疑問解決美
参考になったならよかったです。 ご質問の件ですが性別は指定すればそれっぽく描いてくれると思います。 吉音さんが意味しているものと合致しているかわかりませんが、boy指定したら男っぽく描いてくれました。 また性別指定しないでwearing men's suitsにすると、女性用のスーツにアレンジして描いてましたね。 このあたりはプロンプトの指定で頑張ればなんとかなるのかもしれません。 ツイッターに作った画像を載せてみたので見てみてください。 twitter.com/bisyoujogimonch/status/1652369687811072000 twitter.com/bisyoujogimonch/status/1652369318620057601
@吉音
@吉音 Год назад
@@ゆっくり日常の疑問解決美 なるほど。プロンプトの時にスーツをわかりやすい別名で覚えさせることで、なんとかなるってことですかね。ありがとうございます!男装の麗人を量産してきます!
@ゆっくり日常の疑問解決美
生成を繰り返していると、反応してくれるパターンと反応してくれないパターンがおぼろげに見えてくるので、このあたりは経験知として傾向を身につけていけばいいのかなと思います。 もしくはモデルによって学習している衣服のパターンもあると思いますので、うまくいかなかったら別のモデルを試してみるというのもアリかなとは思いますね。 色々試してみてくださいませ~
@tumibukuro9311
@tumibukuro9311 Год назад
質問です。私はまだloraを使って学習させたことがないのですが、仮にtarouという人物の真顔のイラストだけを学習させたとします。その状態で、例えば、プロンプトにtarou,smileなどと入力した場合、tarouが笑っている画像を学習させていなくても、笑っている画像が出力されるのでしょうか?
@ゆっくり日常の疑問解決美
すみません、私が実際に試していないので確たることは言えないのですが、想像としてお聞きください。 LoRAはベースのモデルを指定して学習させるので、学習させていない表情については、元のモデルに似てくるんじゃないかと思っています。 26:05あたりでchilloutmixにユニティちゃんを学習させた結果が出ていますが、これらの表情はほとんどchilloutmix単体で生成したキャラの表情と変わらないようにみえます。 なので、真顔で学習させても笑ったりしてくれる可能性は高いですが、その笑顔の表情はベースのモデルの表情に似ることになると思われます。 ただし、真顔ばかりの画像で学習させると「いつもこの表情」って学習するので真顔以外の表情が出ないことはないのですが、出にくくなるのかなと。 LoRAの影響力を弱めていい塩梅に調整すれば、真顔の学習でも笑顔を作ってくれると思います。
@tumibukuro9311
@tumibukuro9311 Год назад
@@ゆっくり日常の疑問解決美 なるほど。ありがとうございます。アングルに関してはどうでしょうか?例えば、正面からの画像だけを学習させた状態で、斜めから写した絵を生成したい場合「この物体が斜めを向いたらこうなるだろう」という具合に、aiは自動でやってくれるのでしょうか?
@ゆっくり日常の疑問解決美
@@tumibukuro9311 ある程度は対応して描いてくれると思います。 これもまたもとになるモデルデータがどのように学習しているかによると思うんですね。 斜めアングルを描写できるようなモデルデータで追加学習させれば、描いてもらえそうです。 でも、苦手な角度もありそうです。 実写系のモデルは正面画像の時はきれいに描かれたりしますが、openposeでポーズを指定したりすると「おや?」と思うようなクオリティのものが出てくることがあります。 斜め方向からの実写写真ってあんまりないですからね…、そんなに学習できていないのかと。 なので、LoRAで正面画像のみの追加学習だとしても、おおもとのモデルデータが斜め方向からの画像をたくさん学習していれば、それに合わせて斜め画像を生成してくれると思います。 話はちょっと変わりますが、学習させる画像にはあまり角度を付けない方がいいかなと思いました。 このサンプルのユニティちゃんの学習をさせる際に、360度全方位からの画像があれば、ノマドさんのおっしゃるようにいろんな角度からの描写をスムーズにしてくれると思ったのですが、様々な角度(真下や斜め下からの画像含む)の画像を学習させた結果、変なところから腕や足が生えるユニティちゃんが生成されることが多かったです。 これはおそらく、学習画像に対して「どの角度から撮影したものなのか」という分析が不十分なんだと思います。 多少の俯瞰や斜め下なんかは理解してくれそうですが、真下からのアングルや、斜め後ろ下からの極端な画像は含めない方がいいと思いました。 ただ、私の場合は動画内でも紹介しましたが、背景がない状態での画像を学習させたのでAIが上下を判断できなかったという可能性もあります。 背景付きならどの角度でも適切な学習をしてくれる可能性があります。 なんか質問に対する十分な回答になっていない気がしますが…。 検証してお答えできればよかったのですが、検証してないので想像になります。 すみません…。
@tumibukuro9311
@tumibukuro9311 Год назад
@@ゆっくり日常の疑問解決美丁寧な回答ありがとうございます(*'▽')
@ゆっくり日常の疑問解決美
@@tumibukuro9311 いえ、こんな感じでよければ回答しますので、お気軽に聞いてみてくださいね。 ありがとうございました。
@ポンピン-e7p
@ポンピン-e7p Год назад
7分31秒くらいにある、set.up画面の、this machineの項目がどうしても表示されなくて、もう一度kohya-ssのセットアップ画面になってしまうのですが、原因を教えてほしいです
@ゆっくり日常の疑問解決美
セットアップの質問が出て来ないのですね ポンピンさんがお試しになったのはこの動画の方法ですか? それとも、新しいインストール方法でしょうか? この動画の方法でうまくいってないようでしたら、新しいインストール手順を解説した動画がありますので、こちらを参考にしてみてください。 ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-jjlilbJJk00.html 新しいインストール手順の方でもうまく質問が出て来ないようでしたら、そうですねぇ…。 フォルダ名やフォルダを作成した場所(ルートパス)に日本語が含まれていたり、文字の中にスペースが含まれていないかチェックしてみてください。 あとはコマンドプロンプト(パワーシェル?)にエラー文などは出てないでしょうか。 もし出ているようでしたら、どんな文字が出ているか書いていただけると対処方法を一緒に考えられるかもしれません。 とりあえずはこんなところでしょうか…。
@ポンピン-e7p
@ポンピン-e7p Год назад
@@ゆっくり日常の疑問解決美 返信ありがとうございます kohya-ss Manually configre accelerate       ↓ cudart64-110.dll"or one of its dependencies. こんなエラーが表示されます
@ゆっくり日常の疑問解決美
cudaのエラーかもしれないですね。 ここに同じエラー文が出ているので、この対処法を試していただいてもよろしいですか? wikiwiki.jp/sd_toshiaki/%E3%82%A8%E3%83%A9%E3%83%BC%E8%A7%A3%E6%B1%BA%E3%83%A1%E3%83%A2#sf909503 うまくいくといいのですが…。
@バーゲンクロス
@バーゲンクロス Год назад
コメント失礼します。以前はこちらの動画のやり方で出来ていたのですが、一度stable-diffusion-webuiアンインストールして再度stable-diffusion-webuiをインストールしなおし、再度いれなおしを行っているのですが、もうこちらのやり方ではインストールが出来なくなっているみたいです。kohya_ssさんのホームページに記載されているギットハブを入れるとsd-scriptsフォルダが出来上がってしまいkohya_ssのフォルダが作成されなくなりました。kohya_ssフォルダのインストール途中でcpの項目あたりでファイル名、ディレクトリ名、またはボリュームラベルが間違っています。と赤文字でエラーが出てしまいインストールも途中で止まってそれ以上進めなくなりました。どうしたらよろしいでしょうか?
@ゆっくり日常の疑問解決美
情報ありがとうございます。 今はそんなことになっているのですね。 知りませんでした…。 ちょっといい方法がないか調べてみますね。
@ゆっくり日常の疑問解決美
インストールの手順が変わっているみたいですね。 こちらのブログで新しい方法を解説されていました。 ikuriblog.com/how-to-create-lora-data-in-kohya_ss-gui/ 手順が少なめなので、これも動画にしてみようかなと思っています。 動画が待ちきれないようでしたら、リンク先の手順をお試しくださいませ。
@バーゲンクロス
@バーゲンクロス Год назад
ありがとうございます。助かります。😂 あれから私の方でも色々検索して調べてみたらできる方法あったのでそちら試した所インストールできました。こちらのリンクの先の、サイトとは別の所ですが、最初はわからなくて弱ったのですが何とかインストールまでと起動の所まではいけたので大丈夫だとは思いますが、無事問題なく使えるようでしたら、こちらもお教え致します。
@ゆっくり日常の疑問解決美
@@バーゲンクロス バーゲンクロスさんのほうでインストールがうまくいったようで良かったです。 また、再度の情報ありがとうございます。 有用な情報をお寄せいただくと、私だけではなく他の方の参考にもなりますので助かります。 こちらでも情報をまとめて動画にしている最中です。 近日中に公開できるように頑張ります!
@SS-uy2ir
@SS-uy2ir Год назад
丁寧な解説ありがとうございます! 以下のような警告が出て、学習が「 0%| | 0/9 [00:00
@ゆっくり日常の疑問解決美
すみません、わからないので少し調べてみますね。
@SS-uy2ir
@SS-uy2ir Год назад
@@ゆっくり日常の疑問解決美 ありがとうございます🙇‍♂️
@ゆっくり日常の疑問解決美
こちらのサイトによりますと似たようなエラーが出た時にVENVファイルを消して再起動で環境構築されるとあります。 onl.la/KUCKqNp でもファイルじゃなくてフォルダかもしれません。 (WEB-UIの入っているフォルダ) ↓ stable-diffusion-webui ↓ venvフォルダがあります。 また、LoRAの学習をさせようとしているなら (WEB-UIの入っているフォルダ) ↓ stable-diffusion-webui ↓ Kohya ↓ kohya_ss ↓ venvフォルダがあります。 この二つのどちらかを差していると思います。 削除とありますが、いったんデスクトップなどにフォルダごと移して、webui-user.batを実行して、再構築されなかったら元に戻すという手順を踏むといいかもしれません。 またこちらの質問では、エラー文の詳細はちょっと違いますが、SSさんと似た症状かなと思いました。 github.com/facebookresearch/xformers/issues/664 webui-user.batを開いて編集してset COMMANDLINE_ARGS=の後ろに追記。 set COMMANDLINE_ARGS= --reinstall-torch --xformers このようにして書いて実行するといいかもしれないということです。 とすると、webui-user.batの中身は以下のようにして、実行ということになります。 @echo off set PYTHON= set GIT= set VENV_DIR= set COMMANDLINE_ARGS= --reinstall-torch --xformers call webui.bat もう一つの可能性としては、例えばstable-diffusion-webuiを導入するときに、使うプログラムなどがその時の状態を反映しているかもしれません。 (すみません確信はありません) バージョンはこれを使う、みたいな設定ファイルが導入時に出来上がってしまうイメージです。 その設定ファイルがあると、新バージョンを入れても、旧バージョンを指定して使ってしまう事になるかもしれません。 なので、お手数ですが、教師ファイルなどは別に保存して、もう一度最初から導入手順を繰り返してみるのも一つの手かなと思っています。 でも、上で書いたように確信はありませんので、もし色々やってうまくいかなかったらやってみる価値はあるかも、という程度ですかね。 今のところはこれくらいです。 お試しくださいませ。 追記: xformersの再構築を解説しているサイトもありましたので、理解できそうならお試しください。 私はちょっとやりながらじゃないと理解できなさそうな内容でした…。 note.com/mayu_hiraizumi/n/n25781ab1cf63
@SS-uy2ir
@SS-uy2ir Год назад
@@ゆっくり日常の疑問解決美 大変、詳細なご回答ありがとうございます。結局、どのやり方でもkohyaさんのLoRA学習はできませんでした。なおwebuiで画像の生成は問題なくできます。 ちなみにLoRA学習の方はwebuiのkohyaさんの拡張機能版でxformersの問題を解決してなんとかやっている人がいるようなので、ひとまずそれを試してみます。
@ゆっくり日常の疑問解決美
@@SS-uy2ir お力になれずすみません…。 PyTorch 2.0.0+cu118 with CUDA 1108 (you have 2.0.0+cpu) Python 3.10.11 (you have 3.10.6) 使用バージョンが違ってそうなのでPythonと PyTorchのバージョンを合わせることが出来たら何とかできないかなぁと思っています…。 他の方の方法でうまくいきますように。
@ナユタ-b7v
@ナユタ-b7v Год назад
コメント失礼します。 Regularisation images are used... Will double the number of steps required... Total steps: 1850 Train batch size: 1 Gradient accumulation steps: 1.0 Epoch: 1 Regulatization factor: 2 max_train_steps (1850 / 1 / 1.0 * 1 * 2) = 3700 stop_text_encoder_training = 0 lr_warmup_steps = 370 accelerate launch --num_cpu_threads_per_process=2 "train_network.py" --enable_bucket --pretrained_model_name_or_path="C:/Users/nhs20344/AIAI/stable-diffusion-webui/kohya/LoraLowVRAMSettings.json" --train_data_dir="C:/Users/nhs20344/AIAI/stable-diffusion-webui/MOTONOGAZOU1" --reg_data_dir="C:/Users/nhs20344/AIAI/stable-diffusion-webui/MOTONOGAZOU2" --resolution=512,512 --output_dir="C:/Users/nhs20344/AIAI/stable-diffusion-webui/models/Lora" --logging_dir="C:/Users/nhs20344/AIAI/stable-diffusion-webui/kohya" --network_alpha="1" --save_model_as=safetensors --network_module=networks.lora --text_encoder_lr=5e-05 --unet_lr=0.0001 --network_dim=8 --output_name="nahida1" --lr_scheduler_num_cycles="1" --learning_rate="0.0001" --lr_scheduler="cosine" --lr_warmup_steps="370" --train_batch_size="1" --max_train_steps="3700" --save_every_n_epochs="1" --mixed_precision="fp16" --save_precision="fp16" --cache_latents --optimizer_type="AdamW8bit" --max_data_loader_n_workers="0" --bucket_reso_steps=64 --xformers --bucket_no_upscale prepare tokenizer Use DreamBooth method. prepare images. found directory C:\Users hs20344\AIAI\stable-diffusion-webui\MOTONOGAZOU1\50_isi girl contains 37 image files found directory C:\Users hs20344\AIAI\stable-diffusion-webui\MOTONOGAZOU2\1_girl contains 170 image files 1850 train images with repeating. 170 reg images. [Dataset 0] batch_size: 1 resolution: (512, 512) enable_bucket: True min_bucket_reso: 256 max_bucket_reso: 1024 bucket_reso_steps: 64 bucket_no_upscale: True [Subset 0 of Dataset 0] image_dir: "C:\Users hs20344\AIAI\stable-diffusion-webui\MOTONOGAZOU1\50_isi girl" image_count: 37 num_repeats: 50 shuffle_caption: False keep_tokens: 0 caption_dropout_rate: 0.0 caption_dropout_every_n_epoches: 0 caption_tag_dropout_rate: 0.0 color_aug: False flip_aug: False face_crop_aug_range: None random_crop: False token_warmup_min: 1, token_warmup_step: 0, is_reg: False class_tokens: isi girl caption_extension: .caption [Subset 1 of Dataset 0] image_dir: "C:\Users hs20344\AIAI\stable-diffusion-webui\MOTONOGAZOU2\1_girl" image_count: 170 num_repeats: 1 shuffle_caption: False keep_tokens: 0 caption_dropout_rate: 0.0 caption_dropout_every_n_epoches: 0 caption_tag_dropout_rate: 0.0 color_aug: False flip_aug: False face_crop_aug_range: None random_crop: False token_warmup_min: 1, token_warmup_step: 0, is_reg: True class_tokens: girl caption_extension: .caption [Dataset 0] loading image sizes. 100%|██████████████████████████████████████████████████████████████████████████████| 207/207 [00:00
@ゆっくり日常の疑問解決美
エラー出てしまいますよね。 処理に対して、VRAMが足りないとナユタさんのようなエラーが出ることがあります。 私も似たようなエラーが出たことがあります。 うまくいくかわかりませんが、お試しください。 3つ書きますが、どれかがうまくいくといいなぁという感じです。 私の場合は3が有効でした。 生成されたsampleフォルダは、残ったままだとエラーの原因になりますので、削除しておいてください。 1. 学習の設定画面で Dreambooth LoRA ↓ Foldersの横のTraining parameters を開くと Optimizerのところが「AdamW8bit」になっているんですけど、これを「AdamW」に変更してTrain modelを実行。 2. 設定済み環境ファイルで低VRAM用の設定済み環境ファイルを使用する。 3. VRAMなんかがあまり高スペックじゃない場合は大量の学習をさせようとするとエラーになるみたいです。 私の場合は以下の枚数で学習させようとしたところ、エラーが出ました。 教師画像40 正則化画像140 なので、めちゃくちゃ減らして 教師画像4 正則化画像14 にしたら学習してくれています。 なので、教師画像と正則化画像を極端に減らして(それぞれ3枚ずつとか)Train modelをやってみて、それでエラーが出ない場合は少しずつ画像数を増やしていくとうまくいくかもしれないです。 お試しください。
@ナユタ-b7v
@ナユタ-b7v Год назад
1.2.3全て実行したら出来ました! 制度を上げるために追加で学習させたときは、プロンプトに読み込むカードを複数枚選択して生成すればいいんですか?
@ゆっくり日常の疑問解決美
@@ナユタ-b7v うまくいったようでよかったです。 学習モデルのカードを何個も追加してもおそらくなんですけど、カードごとに別のキャラって認識すると思います。 なので、精度を上げるには一つのカードを練り上げた方がいいような気がします。 ・(エラーが出ない範囲での)教師画像の追加 ・教師画像の厳選 ・学習回数を増やす ・キャプションを画像ごとにきちんと整理する くらいでしょうか。 簡単にできるのは教師画像の追加と、学習回数の調整なのでこれらをあれこれ試しているといいかもです。 また、ほかのLoRA学習の方法もありますので、そういったものを試してみるのも一つの手ですね。 というありきたりな回答になってしまいましたが…。 いろいろ楽しみつつ試行錯誤してくださいませ~。
@スウィンド
@スウィンド Год назад
コメント失礼します 23;07 の部分で raise ImportError("No xformers / xformersがインストールされていないようです") ImportError: No xformers / xformersがインストールされていないようです Traceback (most recent call last): File "C:\Users\yamas\AppData\Local\Programs\Python\Python310\lib unpy.py", line 196, in _run_module_as_main return _run_code(code, main_globals, None, File "C:\Users\yamas\AppData\Local\Programs\Python\Python310\lib unpy.py", line 86, in _run_code exec(code, run_globals) File "C:\SDUI\stable-diffusion-webui\kohya\kohya_ss\venv\Scripts\accelerate.exe\__main__.py", line 7, in File "C:\SDUI\stable-diffusion-webui\kohya\kohya_ss\venv\lib\site-packages\accelerate\commands\accelerate_cli.py", line 45, in main args.func(args) File "C:\SDUI\stable-diffusion-webui\kohya\kohya_ss\venv\lib\site-packages\accelerate\commands\launch.py", line 923, in launch_command simple_launcher(args) File "C:\SDUI\stable-diffusion-webui\kohya\kohya_ss\venv\lib\site-packages\accelerate\commands\launch.py", line 579, in simple_launcher raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd) subprocess.CalledProcessError: Command '['C:\\SDUI\\stable-diffusion-webui\\kohya\\kohya_ss\\venv\\Scripts\\python.exe', 'train_network.py', '--pretrained_model_name_or_path=C:/SDUI/stable-diffusion-webui/models/Stable-diffusion/anything-v4.5-pruned.safetensors', '--train_data_dir=C:/SDUI/stable-diffusion-webui/teacher', '--reg_data_dir=C:/SDUI/stable-diffusion-webui/regular', '--resolution=512,512', '--output_dir=C:/SDUI/stable-diffusion-webui/models/Lora', '--logging_dir=C:/SDUI/stable-diffusion-webui/kohya', '--network_alpha=128', '--save_model_as=safetensors', '--network_module=networks.lora', '--text_encoder_lr=5e-05', '--unet_lr=0.0001', '--network_dim=128', '--output_name=chill_unity', '--lr_scheduler_num_cycles=1', '--learning_rate=0.0001', '--lr_scheduler=constant', '--train_batch_size=2', '--max_train_steps=1800', '--save_every_n_epochs=1', '--mixed_precision=bf16', '--save_precision=bf16', '--seed=1234', '--caption_extension=.txt', '--cache_latents', '--optimizer_type=AdamW8bit', '--max_data_loader_n_workers=1', '--clip_skip=2', '--bucket_reso_steps=64', '--xformers', '--bucket_no_upscale']' returned non-zero exit status 1. と表示されてしまって進みません,xfomersはなくてはダメなんですかね?
@ゆっくり日常の疑問解決美
お疲れ様です。 xformersはなくても大丈夫だと思うのですが、確証はありません。 ここから憶測になりますが、学習のUI画面を見ていたところ、xformersに関する項目があったので、こちらを変更すればもしかしたらいけるかもしれないです。 Dreambooth LoRAタブ ↓ 学習フォルダを設定したFoldersタブの右側の Training parametersをクリック。 ↓ 下の方にAdvanced Configurationのメニューがあるのでクリック。 ↓ weights,Blocks,Convのタブが表示されます。 このタブのなかで下の方に行くと Use xformers にチェックが入っているのでこれを外せば何とかなるんじゃないかと思っています。 weights,Blocks,Convの3つにそれぞれUse xformersの項目があるので、すべて外せば何とかならないかなぁと思っています。 お試しくださいませ。
@スウィンド
@スウィンド Год назад
@@ゆっくり日常の疑問解決美 助かりました!と言えたらよかったんですが、今度は raise subprocess.CalledProcessError(returncode=process.returncode, cmd=cmd) subprocess.CalledProcessError: Command '['C:\\SDUI\\stable-diffusion-webui\\kohya\\kohya_ss\\venv\\Scripts\\python.exe', 'train_network.py', '--pretrained_model_name_or_path=C:/SDUI/stable-diffusion-webui/models/Stable-diffusion/anything-v4.5-pruned.safetensors', '--train_data_dir=C:/SDUI/stable-diffusion-webui/teacher', '--reg_data_dir=C:/SDUI/stable-diffusion-webui/regular', '--resolution=512,512', '--output_dir=C:/SDUI/stable-diffusion-webui/models/Lora', '--logging_dir=C:/SDUI/stable-diffusion-webui/kohya', '--network_alpha=128', '--save_model_as=safetensors', '--network_module=networks.lora', '--text_encoder_lr=5e-05', '--unet_lr=0.0001', '--network_dim=128', '--output_name=chill_unity', '--lr_scheduler_num_cycles=1', '--learning_rate=0.0001', '--lr_scheduler=constant', '--train_batch_size=2', '--max_train_steps=1800', '--save_every_n_epochs=1', '--mixed_precision=bf16', '--save_precision=bf16', '--seed=1234', '--caption_extension=.txt', '--cache_latents', '--optimizer_type=AdamW8bit', '--max_data_loader_n_workers=1', '--clip_skip=2', '--bucket_reso_steps=64', '--bucket_no_upscale']' returned non-zero exit status 1. と出てしまいました、エラーを見てもわかりません、、 教えていただけると嬉しいです。。
@ゆっくり日常の疑問解決美
すみませんちょっといろいろありまして遅くなりました。 3つ可能性がありそうなものがありますのでおためしください。 1. 学習の設定画面で Dreambooth LoRA ↓ Foldersの横のTraining parameters を開くと Optimizerのところが「AdamW8bit」になっているんですけど、これを「AdamW」に変更してTrain modelを実行してみる。 2. 設定済み環境ファイルで「低VRAM用」のものを使ってみる 3. VRAMなんかがあまり高スペックじゃない場合は大量の学習をさせようとするとエラーになるみたいです。 私が試した範囲だと 教師画像40 正則化画像140 にして、Train modelをクリックしたら、おそらく同じエラーが出たんですね。 なので、めちゃくちゃ減らして 教師画像4 正則化画像14 にしたら学習してくれています。 そこで、教師画像と正則化画像を極端に減らして(それぞれ3枚ずつとか)Train modelをやってみて、それでエラーが出ない場合は少しずつ画像数を増やしていくとうまくいくかもしれないです。 お試しくださいませ。
@スウィンド
@スウィンド Год назад
ありがとうございます! とりあえずはなんとかなりそうです。ほんとう対応が丁寧で助かりました。本当になんとお礼を言っていいのか…
@ゆっくり日常の疑問解決美
@@スウィンド いえ、私も予想で解決を提案していてスウィンドさんにそれが正しかったって検証してもらっているようなものなので…。 WIN-WINですね! というか、たまたまうまくいっただけなので、運がよかったです。 お役に立てたならうれしいです。 楽しんでくださいませ~
@dadsdamasiamsiamd8548
@dadsdamasiamsiamd8548 Год назад
.\venv\Scripts\activate のコピペをすると PS D:\kohya2\sd-scripts> python -m venv venv Python PS D:\kohya2\sd-scripts> .\venv\Scripts\activate .\venv\Scripts\activate : 用語 '.\venv\Scripts\activate' は、コマンドレット、関数、スクリプト ファイル、または操作可能 なプログラムの名前として認識されません。名前が正しく記述されていることを確認し、パスが含まれている場合はそのパスが正し いことを確認してから、再試行してください。 発生場所 行:1 文字:1 + .\venv\Scripts\activate + ~~~~~~~~~~~~~~~~~~~~~~~ + CategoryInfo : ObjectNotFound: (.\venv\Scripts\activate:String) [], CommandNotFoundException + FullyQualifiedErrorId : CommandNotFoundException となりこの先に進めません改善方法わかりましたら教えてほしいです
@ゆっくり日常の疑問解決美
DADSDA MASIAMSIAMDさんのコマンド部分を拝見しますと、 PS D:\kohya2\sd-scripts> こうなってまして。 「kohya2」はDADSDA MASIAMSIAMDさんが作成したデータ格納のためのフォルダだと思っています。 動画の3:57あたりで作っている「kohya」の代わりのフォルダかなって思ってます。 「kohya2」で作業してプログラムを順番に実行していくと、 git clone github.com/bmaltais/kohya_ss.git cd kohya_ss この二つを実行した時点で こうなっていて欲しいんですよね。 PS D:\kohya2\kohya_ss> コマンドを実行する階層が違うので、「.\venv\Scripts\activate」がエラーになってしまうのかなと予想します。 ↓この状態になっていたとすると PS D:\kohya2\sd-scripts> PS D:\kohya2\sd-scripts> cd .. cdとコロンが二つってコマンドなんですけど実行すると PS D:\kohya2> 階層がひとつ上に上がりますので、そこで改めて git clone github.com/bmaltais/kohya_ss.git cd kohya_ss python -m venv venv .\venv\Scripts\activate と順番に実行していくとうまくいかないかなぁ…と思っています。 お試しください。
Далее
We Fell For The Oldest Lie On The Internet
13:08
Просмотров 2,3 млн
Why Are Open Source Alternatives So Bad?
13:06
Просмотров 661 тыс.
I tried Linux for a week, it was terrible but amazing
8:37
I Have Your Token!
10:04
Просмотров 1,1 млн
Update on the Regional Prompter
19:47
Просмотров 19 тыс.