Тёмный

Beautiful girls can be drawn as you wish! You can specify a pose and have it drawn! 

ゆっくり日常の疑問解決美少女
Подписаться 4,8 тыс.
Просмотров 133 тыс.
50% 1

Опубликовано:

 

30 окт 2024

Поделиться:

Ссылка:

Скачать:

Готовим ссылку...

Добавить в:

Мой плейлист
Посмотреть позже
Комментарии : 147   
@ゆっくり日常の疑問解決美
Install from URLに入力するURLです。 コピペでどうぞ。 github.com/Mikubill/sd-webui-controlnet.git 追記 動画内でデッサン人形でもいける、みたいなことを言っていますが、顔がないデッサン人形だと認識されませんでした。 なので、デッサン人形を用いる時は顔があるタイプを使用してください。 誤情報すみませんでした。 さらに追記 cannyだと輪郭検出なので、顔がなくても認識してもらえました。 ただ、顔の位置がちょっと微妙になりがち…。 また、openposeが使えないままなので、使い勝手から言うとやはり顔のあるデッサン人形の方がよいみたいです。
@user-objectX
@user-objectX Год назад
Twitterだと極端な人ばかり目につきますが、ここは平和でいいですね。
@ゆっくり日常の疑問解決美
ごめんなさい、コメント見た時にちょっと吹きました(笑) twitterはそんな修羅に国になっていたんですね…。 ゆかりさんとあかりさんはお互いにこきおろされてますけど、あまり現実の人や事象をバカにしたりしないように心がけてます。 でも、たまに目に余る発言をしてしまうかもしれませんが…。 気を付けていきたいものです。
@ユニ子ユニ子
@ユニ子ユニ子 Год назад
こういう新しい技術の黎明期?の手探りなアングラ感がたまらなく好き
@ゆっくり日常の疑問解決美
いいですよね、アングラ感と手探り感(笑) でも、こういう技術を私は調べるだけなんですけど、先駆者様は「ここが不便だな」と思ったら自分でプログラムを組んで使いやすくして、しかも公開してくれるのがスゴイと思います…。 stable diffusionが一般的になってきたのは半年前くらいからなんですが、進歩が半端ないですよね。
@KinunBenkei
@KinunBenkei Год назад
めちゃくちゃ分かりやすかったです!!!❤🎉感謝🥲
@setunakuonn
@setunakuonn Год назад
ポーズ指定できるゲームとか重宝しそうですね その手のゲームは髪型や衣装も豊富ですし
@ゆっくり日常の疑問解決美
おっしゃる通りですね。 そういったところからスクショとかして、似たキャラを作れたりもしそうですし。
@guanorseki
@guanorseki Год назад
説明がわかりやすく上手かった。感謝します
@ゆっくり日常の疑問解決美
いえ、こちらこそありがとうございます。 楽しんでくださいませ~。
@ぼん_bon
@ぼん_bon Год назад
動画を見ていたら試してみたくなって、Web-UIを入れてみました。 GPUなしなので速度的に厳しいですが、「この呪文をそんな風に解釈するのか」と意表をついた絵が出てきたりして楽しいです♪ それと、3Dプリンターと同様に魔法の道具ではなく、使いこなすにはかなりの修練が要りそうだなということが感じられました。AI絵師さんたち、すごい。
@ゆっくり日常の疑問解決美
面白いですよね。 私はAI投稿サイトでイラストを見ながら好みのイラストのプロンプトを借りてきて試しています。 ぼんさんのおっしゃるようにイラストが出来上がるのが楽しい感じで、積極的にこういう構図のものを試してみようって段階ではまだなかったりします。 楽しみながら経験を積んでいけたらと。 AIイラスト絵師さんたちは、ほんとにプロンプトを少し変えては生成…みたいな感じで突き詰めていっているんだと思います。 私も作業しながら、AIイラストを生成してもらって、たまに確認して出来上がったらまた別の絵を頼む、みたいな使い方をしてますので、ぼんさんもゆっくりお楽しみください。 それと、もし決まったプロンプトで何枚も生成したい時は、ジェネレートボタンを右クリックするとgenerate foreverって項目があって無限に作れますので、放置で何枚も作ってくれます。 よいAIイラストライフを!
@ぼん_bon
@ぼん_bon Год назад
@@ゆっくり日常の疑問解決美 まだインストールしてから1~2時間いじっただけですが、既存の絵なり自分の脳内イメージなりを目標として、text2imgだけでそれにいかに近付けるか、ゲーム感覚で遊んでます。 投稿サイトの絵の呪文を参考にさせてもらうというのは思いつきませんでした。さっそく試してみます!
@ゆっくり日常の疑問解決美
既存の絵に近づけるというのはいいですね。 でも、モデルの個性が出過ぎちゃってるからそういうのってできるんですかね。 既存の絵を覚えさせる追加学習ができるRolaって機能があるらしいんですけど、そのうち研究して動画にしてみたいですね。 まだ名前と、なんだか複雑そうだなってことしかわかっていませんが(笑)
@山形冷麺
@山形冷麺 Год назад
@@ゆっくり日常の疑問解決美 誰に聞いてもよく分からないだけど「AIイラスト絵師」って誰のことを指すんですか?「絵師」はわかるんですよ。何も紙やキャンバスに線を引いて形を作っていく過程(いろいろあるだろうけど)完成に至る人を「絵師」と呼べると思うけど。基本的にAIサービスを使う人(ほぼ)って「AI」に全部お任せして作ってもらうだけだから発注ないし編集作業してるようなものなんで。「絵師」とは呼べないんだよなぁ。唯一、呼べるとしたら何もないゼロからプログラム組んでAI作成サービスを作った開発者ぐらいだと思うんだけど。違うかな?よく分からないんだわ。
@ゆっくり日常の疑問解決美
@@山形冷麺 絵師とは言わないかもしれないですね。 指示師とか。 ただ、ノウハウを極めて思い通りの絵を出せるようになったとしたらそれはそれで一つの技能なんじゃないかなと思います。 AIイラスト作成師?みたいな表現がしっくりくるんじゃないでしょうか。 無理に師をつける必要もないと思いますけどね。 こういう技術の黎明期でもありますからそのあたりの呼称はあまり厳密に考えずにふわっとしたイメージで捉えていいと思います。
@mag289-2
@mag289-2 Год назад
自分でポーズ取ってセルフィー撮って使うという一番簡単な解決策に言及しないのは やはり編集中ずっと自分と向き合う地獄というデメリットがあるからかなw
@ゆっくり日常の疑問解決美
たしかにおっしゃる通りの方法が一番簡単でしたね。 自撮りの習慣がないので気が付きませんでした…。 自分と向き合うのがきついのも無意識にあったのかもしれません。 ゲームとかテレビで、暗転した時に映る自分の顔でげんなりします(笑)
@yuki_k_mihoto
@yuki_k_mihoto Год назад
MMDとの親和性が高い
@ゆっくり日常の疑問解決美
MMDでもいけそうですよね。 私はMMDを挫折したので使い勝手とかはわかりませんが…。
@MichitaroNaito
@MichitaroNaito Год назад
モデルが室内で靴を履いているところも西洋的ですね。
@ゆっくり日常の疑問解決美
なるほど! 気が付きませんでした…。 内藤さんは目がいいんですね…。 そういうところも気にすることが出来れば自然なイラストになりそうです。 ありがとうございます。
@zzz-fm3fo
@zzz-fm3fo Год назад
img2imgでopenposeでやろうとしたら、メモリが足りないといわれたんですけど、これって結構重いですか?またreferece onlyとどっちの方がポーズの再現は高いでしょうか。
@ゆっくり日常の疑問解決美
いえ、私が使用した限りではそんなに重い印象はありませんでした。 メモリが足りなくて生成できないようなら小さいサイズから生成してみてはいかがでしょうか。 あとはステップ数を下げてみるとかですかね…。 referece onlyよりはopenposeのほうが再現度が高いような気がします。 全部個人の感想になってしまうので、具体的でなくてすみません。
@にいにい-u7q
@にいにい-u7q 4 месяца назад
おかねを出せば解決するんでしょ→NVDA株爆買い→あかねさんがまたお金持ちに・・・
@cdkaz
@cdkaz Год назад
3:45 PCエンジンにシステムカード入れないとHuカードのゲームが起動してCD-Rom2の意味がなくなるというダブルミーニングですね
@ゆっくり日常の疑問解決美
ごめんなさい、CD-ROM2未体験のにわかで、挙動までは知らなかったです…。 Huカードのところにシステムカードを差すんですね、なるほどなるほど。 でも、詳しい方からするとそういう見方もしていただけるのですね。 ありがとうございます!
@中山主水
@中山主水 Год назад
ポーズも指定できるようになるとか最高じゃぁないですかぁぁ!でも脳みそがピンクな方向にしかむかないじぶんwwかなしぃなぁ(笑)
@ゆっくり日常の疑問解決美
いえいえ。 ピンクなことを実現するために人類はここまで発展してきたんですよ! 中山さんもその気持ちを犯罪にならない程度に発揮していただければと。
@そそのみどり子
@そそのみどり子 Год назад
いつも見させて頂いております。 二次元イラストを書いているのですが、手足増殖が結構な頻度で起こってしまいます。 手足増殖や欠損は、モデル依存なのか、プロンプト依存なのか、どこが一番影響しているのでしょうか? (どこをどうするとある程度抑えられるのか知りたい)
@ゆっくり日常の疑問解決美
手足の増殖はありますよね…。 いくつか他の方のプロンプトを見たのですが、ネガティブプロンプトに、人体に起こって欲しくないことを記述しているのが主流のようですね。 私が生成している画像に使っているネガティブプロンプトは以下のものです。 いったんこれをがさっとネガティブプロンプトに入れて生成してみてください。 longbody, lowres, bad anatomy, bad hands, missing fingers, pubic hair,extra digit, fewer digits, cropped, worst quality, low quality,EasyNegative, paintings, sketches, (worst quality:2), (low quality:2), lowres, normal quality, skin spots, acnes, skin blemishes, age spot, bad anatomy, text, error, missing fngers, extra digit, fewer digits, cropped, wort quality, jpeg artifacts, signature, watermark, username, completely nude, pointy ears, nude ただ、なんとなくですけど、このネガティブプロンプトを入れると画像の勢いがなくなっているような気がします。 優等生っぽいイラストって言うんですかね。 良くも悪くも普通になって破天荒な感じの勢いのあるものが出て来なくなったような気がします。 なので、色々削ったりしてお試しください。 他の要因としてはプロンプトを詰め込み過ぎると増殖が起きやすいような気がします。 「指示されたあれもこれも表現しなくちゃ!」とAIが頑張っているんでしょうけど、人体的におかしいってところは考慮してないみたいな。 なので、分裂しすぎたら、プロンプトを減らして、ちょっとずつ加えていくのが面倒ですけど、分裂を抑える方法かなと思います。 AIイラスト投稿サイトにはプロンプトが掲載されているところもありますので、そういったサイトでネガティブプロンプトを拾ってくるのもいいかもしれませんね。 あとは生成ボタンでgenerate foreverを使って寝ている間に大量生成して、分裂しないことに賭ける、なんてやり方もありそうです。 選別が大変ですけど(体験済みです)。 なので、 ・体の不具合に関するネガティブプロンプト多めにする ・プロンプトが詰め込み過ぎてないか見直す こちらをお試しくださいませ~。
@そそのみどり子
@そそのみどり子 Год назад
@@ゆっくり日常の疑問解決美 ありがとうございます! プロンプトそのままで、モデルを切り替えた場合、増殖率は変わらないのでしょうか? 優秀なモデルなら抑えられるのかと勝手に思っておりました。
@ゆっくり日常の疑問解決美
いくつかモデルを使用した印象としては、2Dイラスト系はどれも増殖率が変わらなかったような気がします。 chilloutmixやBRAVのような実写系のモデルは、2Dイラスト系と比べるとそこまで破綻した絵は出にくかったように感じました。 指の数がちょっと違ったり、体の後ろに足がもう一本あるとかくらいで、顔が二つとか、異常に体が長いとかは起きにくい印象です。 LoRA学習させたときに思ったのですが、様々なアングルを学習させると腕が増えたりしがちなのかなと思います。 学習画像に対して、どのアングルから見たものでも、まずは「正面から捉えた画像」として学習してそうです。 例えば寝ている姿を真上から見た構図のものがあるとして、画面左方向に頭、右方向に向かって足を伸ばしてねている状態とします。 私たちは寝ているんだなと理解するところを、「頭を左側に生やしてもいいし、右側に足を追加してもいいんだ」と学習していそう…。 私の予想なので間違っていると思いますけど。 2Dイラストは様々なアングルの素材があるので、それらを学習できますが、実写系の素材っておそらくほとんどが正面から撮った写真をもとにしていると思うんですよね。 なので、増殖率に差があるのかなと。 駄文失礼しました。
@そそのみどり子
@そそのみどり子 Год назад
@@ゆっくり日常の疑問解決美 なるほど。 学習したモデル次第で差が出るのかもしれないですね。 コメントいただいた話ですが、実写系とイラスト系、実写系が破綻しにくいであってますでしょうか? 冒頭と中間以降だと評価が逆転してるような。。 また、例えばとあるキャラクターのloraを使って、その中にないような服装やポーズをとらせるのと、 キャラクターのloraを使わず、それ以外の指定は同じとすると、 増殖や破綻はloraを"使う"方が多そうですが、同じご意見でしょうか? loraがあだになるというか、その中にないとうまくいかないというか自由が利かないというか。。
@ゆっくり日常の疑問解決美
@@そそのみどり子 みどり子さんの解釈で合っています。 すみません混乱させるような書き方でしたね。 実写系が破綻しにくい。 イラスト系が破綻しやすい。 2Dイラストは様々なアングルの素材があるので、それらを学習できますが~ の部分で分かりにくかったかと思います。すみません。 2Dイラストは実写系と比べて、様々なアングルのイラストがあるので、正面の画像と斜め上からの画像を同等に扱うと、変なところから腕が出てきてしまう…みたいなイメージです。 文章だとわかりづらいですね。 LoRAを使って、学習させてない服を指定したサンプルがあります。 twitter.com/bisyoujogimonch/status/1652369318620057601 twitter.com/bisyoujogimonch/status/1652369687811072000 どちらも動画内で作ったユニティちゃんのLoRAを使用したイラストですが、服のカラーなんかを流用してアレンジして生成されることが多かったですね。 サンプルはchilloutmixをベースにしたLoRAなので、破綻は少なかったように思います。 counterfeitをベースにしたユニティちゃんLoRAは比較的破綻することが多かった気がします。 ただ、私が学習させた素材が、ほんとに様々なアングルからの画像を使ってしまったので、それも一因かなと思います。 3Dモデルのスクショを利用したので、全方位からの画像を用意したんですね。 真下からとか、斜め下から見上げるようなアングルとか。 吟味せずに学習させたので、そういったものが悪影響を及ぼした可能性はあります。 適切な素材を用意すれば破綻は少なそうですけど、試してないのでわかりません。 申し訳ないです。
@teikoku69
@teikoku69 Год назад
Figmaでポーズ取らせて読み込ませたら認識したのでお勧めです。というか無敵ですわこれ。
@ゆっくり日常の疑問解決美
貴重な情報ありがとうございます! 手でポージングさせて写真取れればそれが直感的でわかりやすいですよね。 他の方の参考にもなると思いますので、ありがとうございます!
@jokercgamehannel
@jokercgamehannel Год назад
これ木人形買ってきて自分でスマホで撮った写真とかでもいけるんですかね?
@ゆっくり日常の疑問解決美
いけると思いますよ。 デザインドールも人の形のしたものを人として認識してるので。 人形の後ろに紙なんかを置いて、木人形だけにするとより認識しやすいと思います。
@ゆっくり日常の疑問解決美
あ、木人形を認識するかわからないので、買ってくる前に写真を撮って一度試してからの方がいいかと思います。 認識しなかったらもったいないですからね。
@jokercgamehannel
@jokercgamehannel Год назад
@@ゆっくり日常の疑問解決美 ありがとうございます、まずは家のプラモとかフィギアで認識するか試してみようと思います
@ゆっくり日常の疑問解決美
@@jokercgamehannel お疲れ様です。 デッサン人形ダメみたいです。 すみません。 私も試してみたのですが、認識されませんでした。 アマゾンのリンクになりますが、変なリンクじゃないです。 onl.bz/bqd2cb7 こういうタイプの顔がないデッサン人形は認識されませんでした。 onl.bz/rq5H7uY こっちの顔があるタイプのデッサン人形は認識されました。 顔かもしくは輪郭が認識のポイントなのかもしれません。 あとはガンダムも試してみましたが、ガンダムはダメでした。 画像がよくなかったのかもしれませんが。 それと、ソニックの人形も試してみましたが認識しなかったですね。 目があれば認識するのかと思いましたが、そうでもないみたいです。 ・人型 ・顔がある またねんどろいどはこちらは認識しました。 onl.bz/Z1tFJqc ただ、ミクダヨーは認識しなかったので、頭身が低いものは認識しづらいのかもしれません。 onl.bz/DwtJbYz 誤情報を教えてしまってすみません…。
@ゆっくり日常の疑問解決美
すみません、色々試していたのですが、openposeだと顔がないデッサン人形は認識しないのですが、cannyにすれば輪郭を検出してくれるので、顔がなくても一応何とかなるみたいです。 ただ、どっちの方に顔が向いているかはAI任せになっちゃいますけど…。 なのでプリプロセッサー次第で何とかいけそうです。 ただ、canny限定になっちゃいそうですが。 ガンダムを認識させたらロボ娘が出来上がりました…。
@翔相川-y7f
@翔相川-y7f Год назад
15:20からのイラストが好みすぎる 特に唇 生成呪文や学習元のイラストレーターを教えていただけないでしょうか…
@ゆっくり日常の疑問解決美
え、このバグ画像の女の子ってことでいいんですかね。 huggingface.co/syaimu/7th_Layer/tree/main/7th_layer abyss_7th_layerG1.ckpt を使って プロンプト super fine illustration, an extremely cute and beautiful school girl, highly detailed beautiful face and eyes ネガティブプロンプト low quality で出力しただけですね。 ただ、コメントを見てから試してみたんですけど、コントロールネットを使ってこのバグ画像?にならないと中々この唇の女性が出て来ないです…。 プロンプトに thick lipsを追加して super fine illustration, an extremely cute and beautiful school girl, highly detailed beautiful face and eyes,thick lips にしたら似たような女の子が出てきたのでお試しくださいませ。
@翔相川-y7f
@翔相川-y7f Год назад
@@ゆっくり日常の疑問解決美 好き チャンネル登録しました
@lightbroken5422
@lightbroken5422 Год назад
すいません指定の場所に圧縮版も無圧縮版もいれてみたのですが矢印をクリックしても反映されなくて、、、困っています。アドバイス等いただけると幸いです。
@ゆっくり日常の疑問解決美
少し調べてみますね。 お待ちくださいませ。
@ゆっくり日常の疑問解決美
そういえば、私も最近導入した追加機能が反映されないことがありました。 その時に試した方法がふたつあります。 1.WEB-UIを終了する。  WEB-UIの画面を閉じます。  また、起動しているコマンドプロンプトも閉じます。  webui-user.batで再起動。 2.パソコンそのものを再起動。  パソコンをいったんシャットダウンして、再起動後にWEB-UIを再起動。 古典的な方法ですけど…。 私の場合は2の方法で、表示されていなかった機能が表示されました。 一度お試しください。 ダウンロードしてきたモデルデータを入れるフォルダはお手数ですが、もう一度ご確認いただけますでしょうか。 私は、モデルデータのmodelsフォルダとコントロールネットのmodelsフォルダを間違えたことがあったので、よく似たフォルダに入っていないかの確認ですかね。
@lightbroken5422
@lightbroken5422 Год назад
お返事ありがとうございます。再起動して入れなおしたら無事に作動しました、、、お手数おかけしました@@ゆっくり日常の疑問解決美
@ゆっくり日常の疑問解決美
@@lightbroken5422 いえ、無事に動作したようでしたらよかったです。 環境が違うと動作も違うので私のやり方じゃうまくいかない方もたくさんいらっしゃいますので…。 楽しんでくださいませ~。
@レオ-z7p
@レオ-z7p Год назад
うぽつです!前のSDUIの質問なんですけど、User.batを実行すると次のようなエラー文が出てきてしまいます。どうすればいいですか? ModuleNotFoundError: No module named '_socket'
@ゆっくり日常の疑問解決美
すみません、すぐにはわかりませんのでちょっと調べてみますね。
@ゆっくり日常の疑問解決美
モジュールが見つからないだそうで。 パイソンをインストールするときに、「add python 3.10 to PATH」のチェックボックスにチェックが入っていなかったかもしれません。 一度パイソンをアンインストールして、「add python 3.10 to PATH」にチェックを入れてインストールしていただいてもいいですか?
@ゆっくり日常の疑問解決美
少し専門的になりますが、こちらで「ModuleNotFoundError」の対処法も書かれてますので、パイソンのアンインストール→インストールで解決しない場合はお試しください。 qiita.com/ymto/items/e00e95543aab2d4d45ee
@レオ-z7p
@レオ-z7p Год назад
@@ゆっくり日常の疑問解決美 ありがとうございます!
@user7_k
@user7_k Год назад
1:35 出てきた瞬間なんか爆笑した
@ゆっくり日常の疑問解決美
楽しんでいただけたならよかったです(笑)
@NONAME-ph1op
@NONAME-ph1op Год назад
でもほぼ全く同じキャラクターののポージング差分がうまくいきません。 UP主ならどうしますか???
@ゆっくり日常の疑問解決美
お疲れ様です。 まだ試してないのですが、マスク機能があるはずなので、そこで変化させたくない部分をマスクして、それで生成したら、差分が作れないでしょうか。 あと、これもまだ試してないのですが、LoRAで学習させたら衣服とか変わらずにポージングさせられそうと思っています。 自分が検証してないので、両方とも「かもしれない」という話になってしまいますが…。 そういうのも今後取り扱っていけたらと思います。
@tamasai7546
@tamasai7546 Год назад
openposeが画像生成に反映されなくて困っています。 画像生成の際に動画のように生成画像の右に棒人間が表示されません。cannyも同様に反映されません。 EnableをチェックしPreprocessorとModelは選択済み、Modelは無圧縮版と圧縮版の両方を試しました。ControlNetの設定はデフォルトのままです。 元画像と出力画像のサイズは同じにしています。考えられる原因はありますか?
@ゆっくり日常の疑問解決美
すみませんパッとは思いつかないので少し調べてみますね。 あ、パソコンの再起動はしてみましたか? 私も動画内で挙動がおかしくなったと言っていますが、その時に同じように棒人間が出て来ないことがありました。 私の場合無圧縮版にしたり再起動したら直ったので再起動お試しください。 他の原因はちょっと調べてみます。
@ゆっくり日常の疑問解決美
github.com/Mikubill/sd-webui-controlnet/discussions/687 こちらのページで、コントロールネットが丸ごと消えた相談をしている方がいらっしゃいました。 棒人間を認識しないというのと、コントロールネットが丸ごとないというのは違う現象かもしれませんが、コントロールネットに関連しているので、もしやと思い。 ひとつとしては git reset --hard HEAD というコマンドを試すということ。 あの、stable-diffusionのデータをダウンロードするときにやったコマンドプロンプト(変な画面)を開いてから入力実行するといいかもです。 そして、リセットコマンドが終わったらWEB-UIを起動して、コントロールネットが正常に動作するか試してみる。 もう一つはこのWEB-UIは結構頻繁に更新していて、更新する必要があるかもとおっしゃってます。 github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre のsd.webui.zipに含まれるupdate. batrun.batの二つをWEB-UIを閉じてから実行する。 英語に詳しくないので、そんなところかなと。 あるいは、動画の中でパイソンのバージョンを3.10.6を推奨していましたが、3.10.6で不具合があり、3.10.9にしたらうまくいったという方もいらっしゃったので、パイソンの再インストールも試してもいいかもしれません。 この時に、gitコマンドでダウンロードしてきたstable-diffusionのフォルダの中に、パイソンのバージョンを記録しておくようなものがあり、パイソンだけ3.10.9にしてもフォルダの中の記録で「3.10.6を使いなさい」と指示してくることもあるようです。 (すみません、はっきりしたことはわからないです。) なので、手間になってしまうのですが、 パイソン3.10.9をインストール、コントロールネットの動作を確認。 ダメなら、stable-diffusionのフォルダを丸ごと削除したのちに、git クローンコマンドで再度作成。 それで」コントロールネットの動作を確認してみてはいかがでしょう。 stable-diffusionのフォルダを削除するときに、モデルデータは抜いておけばまたダウンロードする必要がないので、抜いておいた方がいいかもしれませんね。 これくらいしか思いつきませんが、お試しください。 これでダメなら、今、グーグルコラボでWEB-UIを使う方法を動画にしていますので、そちらの解説をお待ちくださいませ。
@tamasai7546
@tamasai7546 Год назад
@@ゆっくり日常の疑問解決美 ありがとうございます。試してみます。新しい動画も期待しています。
@ゆっくり日常の疑問解決美
@@tamasai7546 ズバッと解決できずに申し訳ないです。 動画はできたのですが、youtube先生に怒られ中なので審査申請中です…。 もう少しお待ちくださいませ…。
@tamasai7546
@tamasai7546 Год назад
​@@ゆっくり日常の疑問解決美 私のインストールの方法に問題があったようで解決しました。ありがとうございました。
@勝宝田
@勝宝田 Год назад
appiy and restart uiを押しました。が、「再度読込中」のメッセージが出たまま数時間が経過しました。解決方法は?
@ゆっくり日常の疑問解決美
固まってしまったのですね。 WEB UIはプログラムの処理をしやすいように表示されているものなので、WEB UIの挙動がおかしくても裏(コマンドプロンプト内)では成功していることもあります。 なので、一度WEB UIやコマンドプロンプトをシャットダウンしていただいて再起動するとうまくいっているかもしれません。 完全なものではないので、おかしいな?と思ったら再起動!くらいで考えていただけるといいかなと思います。
@勝宝田
@勝宝田 Год назад
再起動しましたが、同じ結果になりました。解決方法は?
@ゆっくり日常の疑問解決美
コマンドプロンプトに何かエラーが表示れていますか?
@勝宝田
@勝宝田 Год назад
@@ゆっくり日常の疑問解決美 コマンドプロンプトとは、何処にありますか?
@勝宝田
@勝宝田 Год назад
コマンドプロンプトとは、何処にありますか?同じ質問をするのは二度目です。
@daimu9120
@daimu9120 Год назад
なんでもいいけど、こういうのを「(自分で)描いた」と言い出す人が激増してる現実が悲しい。たとえ画力を失っても人間として絵描きとしてのプライドだけは失いたくないものです
@ゆっくり日常の疑問解決美
おっしゃる通りですね…。 AIに任せて描いてもらうことは別にいいと思うんですね。 そこで自作を主張するのは何かしらの利益(名声、お金)を得たいからだと思います。 もしかしたらAIイラストというもの自体を「ツール」と捉えていて、「ツール」を使って作ったのは「自分」だから「自作」という論法なのかも…。 自作発言で仕事をしてしまうと、「別のテイストでお願いしまーす☆」と言われたときに困ることになりそうなんですが、どうなんですかね。
@魂魄妖夢-i3k
@魂魄妖夢-i3k Год назад
MMDはユーザコミュニティがすんごい発展してるのでいろんなポーズを落とせてかなりいいですよ 3Dをチョット触ったことあるとか有名なあのポーズをとかだったらMMDのほうが向いてたり...
@ゆっくり日常の疑問解決美
情報ありがとうございます! MMDは歴史が長いですからね…。 私はMMDをうまく使えなかったので敬遠していたのですが…。 ユーザコミュニティを調べてみますね。
@魂魄妖夢-i3k
@魂魄妖夢-i3k Год назад
@@ゆっくり日常の疑問解決美 ユーザコミュニティっていうとあれですけど、まぁ先人たちが作ってくださったファイル群のことを指してます(笑) 特にVPVPWikiやニコニコ静画/動画, BowlRollとかを見てみるといいですよ!
@ゆっくり日常の疑問解決美
@@魂魄妖夢-i3k すみません、詳しく解説していただいてありがとうございます。 魂魄さんが書いてくださったおかげで他の方の参考にもなりますし。 見てきます!
@licht6040
@licht6040 Год назад
最近Stable diffusion 使うのにはまって、昔に絵を描くために(描いてないけど)買ったDesign Dollが役に立つ日が来るとは...
@ゆっくり日常の疑問解決美
意図しないところで役に立つことってありますよね…。 購入してファイル読み込みができるようになったら、少しずつ差分をつけてアニメーションの作画の参考に出来たりしないかなと思ったりしました。
@雪風-c2e
@雪風-c2e Год назад
画面上で動かすのは難しいから、手元の人形で動かしたい気持ち。 QUMARIONでポーズつけるのが楽そうな、細かいところに手を届かせようと思ったら意外と楽でもなさそうな。
@ゆっくり日常の疑問解決美
おっしゃるとおりですね。 もっと直感的に操作できる入力方法があると便利かと思います。 VRグローブをつけて、そこで画面上の人形の腕を曲げたりするような…。 QUMARIONというのがあるんですね。 調べてきましたが、こういうインターフェースもいいですね。 スマホと連動させてタッチパネル操作で何とかできないかなぁと思ったりも考えたりしました。 QUMARIONは知らなかったので教えてくださってありがとうございます。
@AABB-tv3mk
@AABB-tv3mk Год назад
画像サイズを確認したいときは、左クリック→プロパティ→詳細→イメージのところで確認することができます。 トリミングしたい場合は、ペイントというソフトがWindowsでは無料で入っているのでそれを使えばできると思います。 動画大変勉強になります。 ありがとうございます。
@ゆっくり日常の疑問解決美
いえ、こちらこそありがとうございます。 ペイントは標準で入っているにもかかわらずパソコンを初めて購入して以来、触るのはほんの数回程度という使わなさなので、使い方を教えてくださってありがとうございます! ペイント、いろいろできるんですね…。 レイヤーがないってだけで使いづらいって思っちゃってました…。 画像サイズの件も地味に知りませんでした…。
@AABB-tv3mk
@AABB-tv3mk Год назад
@@ゆっくり日常の疑問解決美 追加の質問をしたいのですが、よろしいでしょうか? 綺麗に生成できている画像のプロンプトをみると(((girl)))みたいな三連カッコや,(カンマ)ではなく+(プラス)を使用している場合があります。 個人的には((()))は強調、プラスは前のプロンプトにより強い紐づけと考えているのですがうぷ主様はどう思いますか? 時間があるときでいいので確認してくれると嬉しいです。
@ゆっくり日常の疑問解決美
@@AABB-tv3mk ()は、stable diffusionだと、1.1倍の重みづけということになりますので、カッコでくくらないときよりはよりその要素が出やすくなります。 (())はカッコが二重になってますので、1.1×1.1で1.21倍の重みづけということになります。 カッコが増えればそれ以上、ですね。 webbigdata.jp/post-14827/ こちらのサイトによりますと、「+」はInvokeAIでの重みづけの書き方のようで。 倍率は1.1倍のようです。 cute+ ならかわいさ1.1倍 cute++ なら1.1×1.1で1.21倍 になるみたいです。 調べた限りではこんな感じになるようです。
@AABB-tv3mk
@AABB-tv3mk Год назад
@@ゆっくり日常の疑問解決美 ご返信ありがとうございます。 こんな情報が記載されているページあったんですね! 全然見つけられませんでした。 1.1倍とかそんな詳細に倍率を指定できることに驚きました。 大変助かります。 ありがとうございます。
@ゆっくり日常の疑問解決美
@@AABB-tv3mk いえ、目に入ったページだったのでもしかしたら「+」に関してはstable diffusionなりの用法が別にあるのかもしれませんが(笑) 試してみてくださいませ~
@jju8756
@jju8756 Год назад
blenderでもいけるかな?
@ゆっくり日常の疑問解決美
自分で使いやすくて、キャラ操作ができるなら、ソフトは何でもいいと思います。 blenderはポージングとかもできるんですね。 blenderも無料だし習熟したいとは思いつつ、何年も経ってしまっています…(笑)
@Y8L00
@Y8L00 Год назад
ジョジョ立ちのLoraを自作するしかないですね。
@ゆっくり日常の疑問解決美
特化してますね(笑) Loraもそのうち解説したいですね。 まだ何も調べてないんですけど…。 天野喜孝さんの絵を学習させたモデルをみかけて、ちょっといいなと思いました。
@HA-he7hv
@HA-he7hv Год назад
同じ顔で様々なポーズの画像を生成するにはどうしたらいいですか?
@ゆっくり日常の疑問解決美
同じ顔を出すのって難しいですよね…。 可能性としてはふたつあると思うんですよね。 □1.LoRAで学習させて同じ顔が出るようにする 以下でLoRAの使い方を説明していますが ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-4rCjNiADKaI.html 細かく学習させれば同じ顔になるかと思います。 その時にプロンプトで細かく指定すると、差があまり出ないキャラが作れるかもしれません。 □2.顔部分だけマスクして体は再生成 こちらのブログで画像の一部を再生成するinpaintingの方法を解説されています。 kurokumasoft.com/2023/04/11/web-ui-inpainting/ これで顔はマスクして修正させないようにして体だけ描き替えてもらえば同じ顔でポーズを変えられるんじゃないかと思います。 今後、顔が変わらないようにできる技術ができるかもしれませんが、それは少し待つ必要があるかもしれません。 もしかしたらもうあるかもしれませんけどね。
@omank9314
@omank9314 Год назад
パソコンのスペックは?
@ゆっくり日常の疑問解決美
www.dospara.co.jp/TC30/MC12055-SN4480.html 私はこんな感じのゲーミングパソコンを使っています。 AIイラストを作る際のあったほうがいいというスペックなら おっさんゲーマーどっとねっと様の以下の記事によると onl.bz/KS95N1K ・NVIDIA製グラフィックボード(GeForce等)を搭載していること ・VRAM量が多いほど出力できる解像度の限界が高くなる (12GB以上が望ましい) ・グラフィックボードのスペックが高いほど出力が早くなる だそうです。
@omank9314
@omank9314 Год назад
@@ゆっくり日常の疑問解決美 丁寧な返信ありがとうございます。モニターなどは?何使ってるんですか?
@ゆっくり日常の疑問解決美
@@omank9314 あまりこだわってなくて、大きくて安ければいいかなぁと思いまして、 iiyamaのprolite x3291hsというのを使っています。 www.mouse-jp.co.jp/iiyama/products/lcd/32/X3291HS/spec.html 結構前に買ったので、急に壊れたりしないかなと少しだけ不安です。 5~6年くらいは使っていると思います。
@djfljlk1411
@djfljlk1411 Год назад
WEB UIに手を出したらRTX3080の限界を感じました 時間も溶けるし魔窟ですね
@ゆっくり日常の疑問解決美
おっしゃるとおりに試行錯誤して本当に自分の表現したい絵を求めようとすると沼ですね(笑) 同じプロンプトでもいい絵が出たりでなかったりするので、そこは運任せになっちゃいますけど…。 私はプロンプト固定で何枚も出したり、あとは永久生成の時に、思いついた要素を追加したりしてイメージした絵に近づかないかな~なんてやってますね。 いいグラボじゃないですか。でも限界を感じてしまうものなのですね…。
@manuel221251
@manuel221251 Год назад
Lo siento solo hablo español
@ゆっくり日常の疑問解決美
Sólo hablo japonés, pero creo que podré comunicarme mediante la traducción. ¿Hay algo que le gustaría saber?
@ゆっくり日常の疑問解決美
También hay una explicación del procedimiento de trabajo en texto en la sección de visión general, así que si lo traduces al español, puede que sepas cómo hacer el trabajo. Lamento que esté todo en japonés.
@クレイジーサイコボム
別にわざわざソフトでポーズ作らんでも自撮りすりゃ良いんじゃね?
@ゆっくり日常の疑問解決美
おっしゃる通りですね…。 動画を作っている最中に気が付きませんでした。 気づかせていただきありがとうございます。
@nora130k
@nora130k Год назад
MMD導入すれば、無料でポーズも・・・慣れないとクッソめんどくさいけどw
@ゆっくり日常の疑問解決美
MMDでもできそうですね。 私もMMDを触ろうとした時期がありましたが、おっしゃる通りにめんどうくさくてよくわからなくて投げ出してしまいました。 自分じゃ何もできなかったけど、モーション読み込んでちょっと遊んだくらいですね…。
@creativebirdsview
@creativebirdsview Год назад
❤❤❤❤❤❤
@ゆっくり日常の疑問解決美
thank you for watching!
@sawayaka_sawaday
@sawayaka_sawaday Год назад
Hなのもいけるんですよね?(小声)
@ゆっくり日常の疑問解決美
そりゃもう(うひひ)
@hinakogo
@hinakogo Год назад
背景とパースが合ってないから酔う
@ゆっくり日常の疑問解決美
おお・・・。 パースが変なのは気づきませんでした…。 たまにエッシャーみたいに「つながりどうなってんの?!」って部分があるなぁとは思っていましたが…。 ありがとうございます。
@uniq
@uniq Год назад
喋り方落ち着きます。
@ゆっくり日常の疑問解決美
ゆかりさんとあかりさんのおかげですね。 気に入ったなら他の方のチャンネルも楽しんでくださいませ~。
@穴子ちらし
@穴子ちらし Год назад
棒人間でも認識するのだろうか
@ゆっくり日常の疑問解決美
棒人間だとどうなんですかね。 人間を認識するアルゴリズムがどうなっているのか…。
@田中太郎-z4f
@田中太郎-z4f Год назад
1 つり革は地下鉄なんかだと有ります。地上鉄?に無いのは長距離だからというよりも、庶民軽視でしょう。 2 走り方がマラソンランナーとハリウッド映画…
@ゆっくり日常の疑問解決美
すみません、間違っていたのですね…。 教えてくださってありがとうございます! ハリウッド映画として見れば確かに見えるかもしれません。 そういう画像の影響も受けているんですかね。
@田中太郎-z4f
@田中太郎-z4f Год назад
@@ゆっくり日常の疑問解決美 長距離列車などがそれですが、無い方が一般的ってのは部分的に合ってます。 日本でも新幹線なんかには無いですが、海外の列車も似たような思想なのでしょう。ただ立ち乗り客が多い路線でもなかったりするのはどうなの?と。
@ゆっくり日常の疑問解決美
@@田中太郎-z4f 田中さんお詳しいんですね。 でも、なるほど、乗車形態によってつり革の有り無しは当然発生しますよね…。 杓子定規的に「外国だから~」と安易に考えてスルーしてました。 つり革なしはもしかしたら、他につかまれるものがある、とか。 重ね重ねありがとうございます。
@fujiwara_shino
@fujiwara_shino Год назад
ポーズ作るならMMDがあるな。
@ゆっくり日常の疑問解決美
MMDもいいってよく耳にします。 慣れて使いやすいものがあれば、それを使って認識させるのが一番ですね。 私はMMD慣れませんでした。。。
@山形冷麺
@山形冷麺 Год назад
また人間の倫理観がぶっ壊れて、創作とは程遠い発注作業が始まるのだけれど、「自分は創作した」と勘違いした人たちが増えるのかな?その辺の線引きとこのサービスを使って、商業目的で動くことがないことを切に願う。AIサービスを利用する者のほとんど結局、ユーザー(発注者)であり編集者であるのは覆せない。
@ゆっくり日常の疑問解決美
AIイラストは絵を作るツールの一つだと思いますので、このイラストを使って今後何を表現したいのかなどが注目されたりするかなぁと思います。 今は新しい技術ですので、初めて触る人にとっては楽しいと思いますし、色んな格好やポーズをさせることにオリジナリティがあれば創作したと言ってもいいんじゃないでしょうか。 AIイラストを使ってマンガを作った人もいらっしゃるわけで、AIイラストというツールを使って作った創作マンガとみなせるかと思います。 でも確かに、創作ってのをどうとらえるのかは今後問題提起されたりするかもしれませんね。 渡り鳥さんに言われるまで気にしませんでした…。 ありがとうございます。
@山形冷麺
@山形冷麺 Год назад
@@ゆっくり日常の疑問解決美 絵を描くためのツールは色々あると思うけど。AI自動生成は根本的に違うと感じてます。AIが1~10まで絵を作ってしまうことは果たして創作と言えるのでしょうか?仮に言えるとしたら著作権は絵を自動で作ったAIなのでしょうか?恰好やポーズの件はアイディアとしては創作とは言えるかもしれませんが、結局AIに描かせてるので「絵師」や「イラストレーター」とは言えない。ただのアイディアマン。 AIイラスト(AIが全工程を自動で生成した)を使って、漫画を作ったとしても。根本的には著作権があやふやな絵を拾ってきて、組み合わせたコラ画像漫画に近いかもしれないので、「これ創作漫画です!」って言ったら編集者と漫画家に怒られるかもしれません。 だから下手でもなんでも良いから自分で描いたら?もしくはゼロからAI作って。一般公開しないで自分の為だけに作って「俺AI絵師です!AIのプログラムも自分で組みました!」って言った方がまだマシかもと思います。
@ゆっくり日常の疑問解決美
@@山形冷麺 ありがとうございました。
Далее
i made this indie game and it changed my life
16:51
Просмотров 1,1 млн
Встреча в Лифте 😂
00:43
Просмотров 211 тыс.
Ледник 1:0 Мужик
00:53
Просмотров 1,7 млн
How To Text in Japanese (and like a japanese person)
13:54
How To Animate Like Inside Geopolitics!
25:31
Просмотров 6 тыс.
AI images just got WAY too real. FLUX 1.1 deep dive
33:15
The Linux Experience
31:00
Просмотров 1,3 млн
Easy startup with a click! WEB-UI with google colab
12:28
Встреча в Лифте 😂
00:43
Просмотров 211 тыс.