Тёмный
Diffusion Lab.
Diffusion Lab.
Diffusion Lab.
Подписаться
Upload a video related to the popular image generation AI "Stable Diffusion".
Комментарии
@hikaR141
@hikaR141 2 месяца назад
iPhoneが必要なのですか? webカメラなどには対応していないという事なのでしょうか…?
@diffusion-lab
@diffusion-lab Месяц назад
Windows版でもmocapアプリがあってこちらならWEBカメラ対応していたと思います! ただし負荷とかも結構かかるようですね・・・
@seti9585
@seti9585 6 месяцев назад
とても参考になりましたので、noteでStable-Diffusion-WebUI-TensorRTのインストール方法を紹介する投稿内でリンクを貼らせて頂きました
@zaharoot
@zaharoot 9 месяцев назад
失礼します。動画ご説明ありがとうございました。私も画像拡大(追加?補間?)で「もうちょっと横がw」と困っていたので助かりました!😊 ・・・ちなみに全く関係のないお話になってしまうのですが、今回の画面右横でお話をされているキャラクターはこの動画内でご紹介頂いた生成画像をそのままお使いになったのかと思われますが、この動きを出しているのはもしかして「LIVE2D」とかでしょうか?🤔 あと声はどうやって合わせているのかはわかりませんが。。。ですがとても滑らかで凄いなぁ!、もうここまで一般の方でも出来てしまう時代になったんだなぁ!、と改めて感慨深い思いがしたんです!🥰(すいません、私って感動屋なんです、笑って下さいw(笑)😅(というのも実は私は以前から3DCGをしていたのでどうしてもw)😂 と、以上つまらないご質問で恐縮です!ですが宜しければお答頂ければ幸いです。🙇
@hajime-morimoto
@hajime-morimoto 10 месяцев назад
pipが古いとエラーを吐く場合もあります。C:\Users\名前\Downloads\stable-diffusion-webui-master\stable-diffusion-webui-master\venv\Scriptsに行きコマンドプロンプトを立ち上げ python.exe -m pip install --upgrade pipと入力です。※あくまでも一例です
@やきそば-b4t
@やきそば-b4t 10 месяцев назад
4080だと35FPS前後でした。 解説ありがとうございます。
@diffusion-lab
@diffusion-lab 10 месяцев назад
検証ありがとうございます♪ ちなみに動画でご紹介したフォークの作者さんが、win向けにexeプログラムバージョンを提供して下さっていて、 今のところこちらが1番FPSが稼げそうです。 ただしwindowsによってウィルス誤検知?がある模様ですのでご利用はご自身の判断でよろしくお願いします。
@ubgsdrubgudhtufgchvu
@ubgsdrubgudhtufgchvu 10 месяцев назад
It seems like this also reduced the memory footprint . Nice
@ソウグチのゲーム部屋
@ソウグチのゲーム部屋 11 месяцев назад
解説お疲れ様です。 再構成できてTalking-head-anime-3が使いやすくなりました。 4090でのfpsですが、30前後だったのが40前後に変わりました。 個人的に解像度があとワンランク上がってくれると嬉しいんですけどね。
@diffusion-lab
@diffusion-lab 11 месяцев назад
わ〜検証報告ありがとうございます😊 すごい!やっぱりPyTorchによる最適化は凄まじいんですね。 40fps↑とかなら、この用途でならLCMよりこちらかな、と思ってたりします。4090欲しくなりました…w ちなみに最新情報ですが、なんと 3の開発者が4を発表しています! レンダリング最適化による画質アップと蒸留周りにも動きがあるようで、もう60も視野かもしれませんね!
@そのその-d4h
@そのその-d4h 11 месяцев назад
解説ありがとうございます アニメ塗りっぽいのはLive2Dでもできてるので、06:16みたいな細かいのを背景ごと一枚絵から動かせたら夢ありますね~ 若干表情がおとなしく感じるのはこのツールの問題なのか操作してる人の表情の動かし方の問題なのか気になります🤔
@diffusion-lab
@diffusion-lab 11 месяцев назад
ご視聴ありがとうございます😊 背景込みの画像でも、リアルタイムに生成出来る技術が今、 とんでもないスピードで実現出来つつありますね! fpsがどんどんあがればボーンや今回のような顔検出が不要になるはずなんですが、 今のまま(推論効率を上げるだけ)では、やはりこれらのデータが必要なのは変わらないです。 恐らく来月くらいには、 リアルタイム生成技術とmediapipe,mocap 周りの技術が混ざったものが出てきて、 全てが終わる未来を予想しています! Vでもアニメ生成でも、誰でもハイクオリティで簡単に出来るようになりますね❤ ※あ、表情が硬いのは元絵の影響と、所長の体調のせいかもしれません🤔
@diffusion-lab
@diffusion-lab 11 месяцев назад
パーツ分けがされていない、1枚絵だけあれば簡単にVtuberになれちゃうツール「Talking-head-anime-3」。 最新のPytorch環境で環境を再構成する手順について解説しています。 fpsの向上が期待出来ます。 また、GPUを利用しないで高fpsを実現できるフォークプログラムについても解説しています。 ※あとStable Video Diffusionが楽しすぎて遊んでいましt
@ks-kn8fe
@ks-kn8fe 11 месяцев назад
初めまして、DLして画像生成してみた所 Prompt outputs failed validation unCLIPConditioning: - Required input is missing: clip_vision_output - Required input is missing: strength KSampler: - Required input is missing: model KSampler: - Required input is missing: model この様に出てきました、StabilityMatrixでの環境構築動画があまりなくてよくわからなくて、教えてもらえると幸いです
@diffusion-lab
@diffusion-lab 11 месяцев назад
ご視聴ありがとうございます。 今現在の最新版で試してみましたが、 インストールと画像生成は問題無く行えますのでソフト側の問題ではなさそうですね。 下記の点に注意してもう一度ランチャーを入れなおして試してみてください。 ・インストール先のフォルダパスは、あまり深くしない。ユーザーフォルダ以下とかをつかわず、 ドライブ直下にStabilityMatrixなどを生成していストール。 ・ポータブルモードでインストール。 これでもダメなら、ログに何か手掛かりになるようなエラーが出てないか、などをご確認ください。 ※以前のバージョンでclipがインストールされない、とかありましたので、そのあたりかもしれません。
@ks-kn8fe
@ks-kn8fe 11 месяцев назад
@@diffusion-lab 容量を気にして外付けハードディスクに入れてました、それだとダメでしたか?
@eleanor2681
@eleanor2681 11 месяцев назад
Stable DiffusionはAnacondaで環境構築した方が後々楽ですよ、普通通りSDが使えてTensorRTより簡単です。 RTX306012GBでも笑うくらいに高速で、且つ通常通りにいろんな機能つかえてモデルの変換もなしで簡単。 あ~、COMMANDLINE_ARGS=--opt-sdp-no-mem-attention --opt-channelslastを記入してxformersは絶対消し てください。xformersは足を引っ張ります。
@eyzi3247
@eyzi3247 11 месяцев назад
いつも有益な情報をありがとうございます。 Temporal kitをインストールして 再起動したところ 「続行するには何かキーを押してください・・・」とcmdに表示され sd wed UI自体が使えなくなってしまいました。 何か対処法があれば教えて頂けると幸いです。
@diffusion-lab
@diffusion-lab 11 месяцев назад
ご視聴ありがとうございますっ これ恐らくTemporalKitとSDの相性がとても悪くなっている模様ですね・・・ こちらと同様エラーだと下記手順で解決しそうなのですが、 動作しない場合は、ちょっとハマりそうですね・・・ ru-vid.comUgkx2L2fEbxRw_R06jDNHngBBQm0Byxi0UiO どうしてもダメなら拡張機能の削除だけ行っておきましょう。
@Limeblog-s1q
@Limeblog-s1q 11 месяцев назад
こんにちは😃ちょっとお聞きしたいのですが、右下で喋ってる女の子な動きも滑らかですが、どのソフトを使用していますでしょうか?
@diffusion-lab
@diffusion-lab 11 месяцев назад
ご視聴ありがとうございますっ こちらはtalking-heads-anime という、一枚絵に無理やりブレンドシェイプっぽいものを擬似的に追加できるツールです。 過去動画に解説があります。 このソフトだけではまだ動きが荒いので、RIFEというフレーム補完出来るソフトも組み合わせてたりします。 生成した絵を簡単にVRMとかに出来ちゃえばLive2Dとかで普通にやれるのですが、まだまだ難しいようですね。。 ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-vQkKhyf2QcA.htmlsi=VkQ42inXDsfrrq0E
@Limeblog-s1q
@Limeblog-s1q 11 месяцев назад
@@diffusion-lab こんなに早く返信していただきありがとうございます♪しかも詳しく解説してくださいましたことに感銘を受けています。 是非参考にさせていただきます。 わたしもチャンネルを持ってまして、視聴してくださってる方にご挨拶をしたくて、探していました。 ありがとうございます😊
@diffusion-lab
@diffusion-lab 11 месяцев назад
【2023年11月12日情報】xformers、gradio回りがバージョンアップされ、依存関係でトラブルが出ている模様です。 ※AI Art JAPANさんが対処方法を検討下さっています。ありがとうございます。 下記対処方法により、ひとまずは起動・生成は出来るようになります。 一部挙動がおかしい模様です(ダウンロードボタンを押すと、htmファイルをダウンロードさせられる)が、ひとまず利用出来るようになりました。 ①xformersバージョンとpytorchの不整合解消 コマンドプロンプトを起動、 diffBIRのインストールフォルダにCDし、 venv\Scripts\activateで仮想環境に移行。 pip uninstall torch torchvision torchaudio ※一度pytorch削除 pip install torch torchvision torchaudio --extra-index-url download.pytorch.org/whl/cu121 ※xformersが指定するpytorchに入れ替え ②gradio最新版へのアップグレード pip install --upgrade gradio ③source関連エラー対処(3つ表示され、エラーで起動しない対処) インストールフォルダ配下「gradio_diffbir.py」をバックアップし、編集 148行目: input_image = gr.Image(source="upload", type="pil") を下記に変更 input_image = gr.Image(type="pil") 149行目: run_button = gr.Button(label="Run") を下記に変更 run_button = gr.Button(value="Run") 168行目: result_gallery = gr.Gallery(label="Output", show_label=False, elem_id="gallery").style(grid=2, height="auto") を下記に変更 result_gallery = gr.Gallery(label="Output", show_label=False, elem_id="gallery") UIを制御するgradioのバージョンアップによる不整合が発生している模様で、ひとまず起動・動作はします。 が、生成した画像のダウンロードボタンを押すと、 pngファイルではなく、image.htmファイルをダウンロードしてきますので、 完全解決までは、生成されたファイルを右クリックして、保存して利用しましょう。
@diffusion-lab
@diffusion-lab 11 месяцев назад
[English Translation] The xformers and gradio circumference have been upgraded, and there seems to be some trouble with dependencies. AI Art JAPAN is considering how to deal with it. Thank you very much. The following workaround will allow you to start and generate the file for the time being. Some behavior seems to be wrong (when you press the download button, it makes you download a htm file), but you can use it for the time being. 1. resolve inconsistency between xformers version and pytorch Start a command prompt, CD to diffBIR installation folder, venv\Scripts\activate to move to the virtual environment. pip uninstall torch torchvision torchaudio remove pytorch once pip install torch torchvision torchaudio --extra-index-url download.pytorch.org/whl/cu121 Replace with pytorch specified by xformers. 2. upgrade to the latest version of gradio pip install --upgrade gradio 3. deal with source related errors (3 are displayed, and deal with not starting due to errors) Backup "gradio_diffbir.py" under the installation folder and edit it. Line 148: edit the following line input_image = gr.Image(source="upload", type="pil") Change to the following Image(type="pil") Line 149: Change run_button = gr.Button(label="Run") Change to the following run_button = gr.Button(value="Run") Line 168: Change result_gallery = gr.Gallery(label="Output", show_label="False", elem_id="gallery").style(grid=2, height="auto") to the following result_gallery = gr.Gallery(label="Output", show_label=False, elem_id="gallery") It seems that an inconsistency has occurred due to an upgrade of gradio, which controls the UI, and it starts and works for the time being. However, when I press the download button for the generated image, It downloads an image.htm file instead of a png file, Until the problem is completely resolved, right-click on the generated file, save it, and use it.
@diffusion-lab
@diffusion-lab 11 месяцев назад
これしゅごいかも・・・ 超簡単にとてもハイレベルな動画素材が生成出来るサービス、 最新版のrunway gen-2について解説しています。 Animatediffで頑張るのも楽しいのですが、 生成する物に中々着地点が見いだせないのは否めません。 runwayを利用するとクオリティの高い「すぐ使える」素材が あっという間に出来ちゃうのですね・・・
@捨吉-z2k
@捨吉-z2k 11 месяцев назад
powreshellからの起動は成功しましたがいつまで経っても処理が終わりません、またバッチファイルから起動すると最後に TypeError: Image.__init__() got an unexpected keyword argument 'source'と出て起動出来ません。何が悪いのか教えて頂けると助かります。
@diffusion-lab
@diffusion-lab 11 месяцев назад
動画のご視聴、いつもありがとうございますっ こちらは内部的にDIFFBIRがちょこちょこバージョンアップされているらしく、 いつもの依存関係によるエラー、ですね。 DIFFBIRをインストールしたフォルダにCD、venv環境に移行した後、 下記のコマンドでgradioを更新してみてください。きっとエラーは解消できます。 pip install gradio==3.24.0
@捨吉-z2k
@捨吉-z2k 11 месяцев назад
丁寧な対応有難う御座います、無事起動成功致しました。3060 12Gの環境ですが512×512の画像で数分経っても処理が終わりませんやはりなにかエラーでしょうか? 重ねての質問で恐縮ですがそんなに時間が掛かるものでしょうか?
@diffusion-lab
@diffusion-lab 11 месяцев назад
おっと、こちらはGitHub でも同様のエラーになっているみたいですね。。 github.com/XPixelGroup/DiffBIR/issues/77 少し公式の回答?等を待ってみるしかなさそうです。 夜時間を見つけてまた試してみますね。
@diffusion-lab
@diffusion-lab 11 месяцев назад
​@@捨吉-z2k こちら、環境が更新された影響で色々と不具合が発生しているようです。 ひとまず下記の対応で起動して動作するまではこぎつけられるので、 試されてみてください。 ①xformersバージョンとpytorchの不整合解消 コマンドプロンプトを起動、 diffBIRのインストールフォルダにCDし、 venv\Scripts\activateで仮想環境に移行。 pip uninstall torch torchvision torchaudio ※一度pytorch削除 pip install torch torchvision torchaudio --extra-index-url download.pytorch.org/whl/cu121 ※xformersが指定するpytorchに入れ替え ②gradio最新版へのアップグレード pip install --upgrade gradio ③source関連エラー対処(3つ表示され、エラーで起動しない対処) インストールフォルダ配下「gradio_diffbir.py」をバックアップし、編集 148行目: input_image = gr.Image(source="upload", type="pil") を下記に変更 input_image = gr.Image(type="pil") 149行目: run_button = gr.Button(label="Run") を下記に変更 run_button = gr.Button(value="Run") 168行目: result_gallery = gr.Gallery(label="Output", show_label=False, elem_id="gallery").style(grid=2, height="auto") を下記に変更 result_gallery = gr.Gallery(label="Output", show_label=False, elem_id="gallery") UIを制御するgradioのバージョンアップによる不整合が発生している模様で、ひとまず起動・動作はします。 が、生成した画像のダウンロードボタンを押すと、 pngファイルではなく、image.htmファイルをダウンロードしてきますので、 完全解決までは、生成されたファイルを右クリックして、保存して利用しましょう。
@捨吉-z2k
@捨吉-z2k 11 месяцев назад
本当に丁寧かつ詳細な解説有難う御座います。 今どうしても必要という訳でもないのでもう少し安定してから一からやり直したいと思います。 せっかく解説して頂いたのに申し訳ないのですがStable Diffusionとか他の部分に影響が出そうでちょっと怖いです。
@解罐头
@解罐头 Год назад
An error was encountered while executing gradio_diffbir.py after the environment was deployed.TypeError: Image.__init__() got an unexpected keyword argument 'source',Is there a problem with pillow's version,Sorry, my English is not good, so it is machine translation, I hope you can understand my description。
@ChinjiaoRosu
@ChinjiaoRosu Год назад
great share, any ways to control the layout of the image?
@diffusion-lab
@diffusion-lab Год назад
Thanks for watching my video. Unfortunately, since ControlNet is not available at this time, I cannot specify detailed layouts, etc. We have to try our best with LoRA, which has strong layout and composition enforcement, or with text prompts. This is the reason why TensorRT is not very popular. TensorRT is a function for people who have a specific LoRA they want to use and want to generate a large number of images while allowing for a certain amount of random elements.
@ChinjiaoRosu
@ChinjiaoRosu Год назад
get it, thx for your reply.
@yamashitatomohiro7998
@yamashitatomohiro7998 Год назад
これメモリたくさんないと起動できないんですね、最初に言って欲しかった。でも、分かりやすくて素晴らしい動画です。今後に期待してます。
@このみっくすゲームチャンネル4
今回もとても分かりやすい説明で有難う御座います。TRTの複数LORA適用方法できないの?とか疑問に思っていたので参考になりました。高評価ポチっ!
@diffusion-lab
@diffusion-lab Год назад
ご視聴ありがとうございます😊 controlnet対応に期待したいです…w
@diffusion-lab
@diffusion-lab Год назад
LoRAに関してはそのうち標準で提供されそうな機能ですが、 今のところ複数適用する事が出来ませんので、予めモデルとLoRAをくっつけたものを用意。 これをTensorRTで利用出来るように変換する手順についての動画です。 具材を予め混ぜておいて、専用で作った型に流し込んで大量に作る、みたいな料理に似てますよね?(なるほど ControlNetが利用出来ない状況は変わりませんが、これからに期待したいところですね・・・
@diffusion-lab
@diffusion-lab Год назад
週末のHPがどんどん削られていきますが・・・ メモリを高効率で利用出来る技術「FlashAttention-2」に関する動画です。 ControlNetやFreeU等、重みを変える系の処理にも対応しています。 pytorchやxformersの更新が必要となりますが、こちらもStableDiffusionを高速化できるしくみです。 【余談】LoRAのTensorRT化について 変換したいLoRAの「名前」に空白スペースが含まれている場合、 key errorとなり変換に失敗します。 該当LoRAを一度コピーし、「LoRA名-model名」(おすすめ)等にリネーム。 webUIを再起動してからリストをリフレッシュし、実行するとうまく変換できるようになります。 またVRAM 10GBの環境にて、 バッチサイズ:4 解像度:1536x1536 トークン数:450 で変換出来ましたので、手持ちのモデルはほぼ変換しちゃいました。とても快適です。
@このみっくすゲームチャンネル4
いつも有益な情報ありがとうございます。今回も参考にさせて頂き、無事導入出来ました。これから色々試してみます!
@diffusion-lab
@diffusion-lab Год назад
【cuDNNエラー対処方法】※2023年10月22日修正(フォルダが異なっていました) 環境構築後webUI起動時に、ダイナミックリンクライブラリに関するエラーポップアップが4つ出現しますが、 cuDNNの最新バージョンを入手し、インストール。(NVIDIAの登録が必要です) developer.nvidia.com/cudnn cuDNN v8.9.5 (September 12th, 2023), for CUDA 11.x を入手してください。 ダウンロードしてきた中のフォルダ「bin」の中身、 cudnn_adv_infer64_8.dll cudnn_adv_train64_8.dll cudnn_cnn_infer64_8.dll cudnn_cnn_train64_8.dll cudnn_ops_infer64_8.dll cudnn_ops_train64_8.dll cudnn64_8.dll を webUIインストールフォルダ以下の \venv\Lib\site-packages\torch\lib フォルダの下に、 元のファイルのバックアップを別フォルダ等に取得した後、上書きコピーします。 webUIを起動するとエラーは解消します。 ---- How to deal with cuDNN errors After building the environment, I get 4 error popups about dynamic link libraries when starting webUI, Get the latest version of cuDNN and install it. (NVIDIA registration is required) developer.nvidia.com/cudnn cuDNN v8.9.5 (September 12th, 2023), for CUDA 11.x Please obtain the following. Contents of the folder "bin" in the download, cudnn_adv_infer64_8.dll cudnn_adv_train64_8.dll cudnn_cnn_infer64_8.dll cudnn_cnn_train64_8.dll cudnn_ops_infer64_8.dll cudnn_ops_train64_8.dll cudnn64_8.dll under the webUI installation folder \venv\site-packages\torch\lib After making a backup of the original file in another folder, overwrite it. The error will be resolved when you start webUI.
@diffusion-lab
@diffusion-lab Год назад
English captions added.
@diffusion-lab
@diffusion-lab Год назад
生成速度が飛躍的に向上する「TensorRT」に関する話題です。 NVIDIAさんがStableDiffusion webUI向けに拡張機能を提供して下さっていますので、 構築手順を解説しています。 重みの合計が「1以内」の場合はLoRA同士をマージしてTensorRT向けにベイクするのも良さそうですね。 スライダーLoRA系(-1~1を超える)を同時に使っている、とかは導入が難しいかもしれません。 用途に応じてFA2・TensorRT環境の併用、とかが現時点では最強かと思っています。 ※あとごめんなさい、今回立ち絵と音声ズレチャッタデス
@whitecool
@whitecool Год назад
Dockerを入れてから、StabilityMatrixを入れたほうがよいでしょうかね。 今後もいろいろ便利そうなツールが出てきそうなので、環境は独立させたほうがいいかなと。
@diffusion-lab
@diffusion-lab Год назад
お返事遅れましてスミマセン。 ご視聴ありがとうございます。 StabilityMatrixに関しては、ですが、 インストールしたwebUIの環境は、ベースが3.10.xにもかかわらず、3.11となっていました。 恐らくメインパスには影響の無い、閉ざされた環境で構築してくれるはずですので、 混在してしまうー!みたいな事は無いのでは、と予想しています。 とはいえ、Dockerのお取り扱いが出来るのであれば、おっしゃる通り完全独立した環境が構築出来るのでこの上ないのですが、 どうも画像生成系?でブログや動画を上げられている方々はDocker環境ではない為、 情報収集精度的にあまり期待が出来ない、、みたいな状況かと思っています。。
@LLEE-o7v
@LLEE-o7v Год назад
Excuse me, but what could you be more specific at the create a "installation packaages"? and could this thing work in a conda create python 3.9? I'm kinda a compelely new here. You are an exllent youtuber, thank you anyway.
@diffusion-lab
@diffusion-lab Год назад
Sorry for the late reply. Perhaps you are in a Windows environment. The official installation procedure assumes Linux, and the triton package cannot be installed on Windows. The "wheel" package is provided, though, Unfortunately, this one gives the following error in a conda python 3.9 environment. ERROR: triton-2.0.0-cp310-cp310-win_amd64.whl is not a supported wheel on this platform. The environment in which we have been able to confirm the operation is We have confirmed that it works with python 3.10, not conda. It seems that python 3.11 does not work either, so if you want it to work, you will have to build your environment with pinpoint accuracy. I guess I will have to coexist with python 3.10 being careful not to disrupt the existing conda environment... This is deprecated as it is quite difficult.
@ctom-hv4bu
@ctom-hv4bu Год назад
「DiffBIR」をインストールしようとしたが、最終ステップで起動できず、エラーメッセージ「AssertionError: Torch not compiled with CUDA enabled」と表示されました。
@diffusion-lab
@diffusion-lab Год назад
ご視聴ありがとうございますっ こちらは恐らくPyTorchが正常にインストール、構成されていないエラーのようですね。。 python3.10環境を想定、 最初の手順からvenv環境を作り直して、 pip install torch torchvision torchaudio --index-url download.pytorch.org/whl/cu118 で正常にインストールが終わればうまくいきそうなのですが、どうでしょうか? また、nvidiaのGPU環境が必須となり、新しめのグラフィックドライバも必要です。 これでもNGの場合には、cuda toolkitのインストール、構成も必要かもしれません。
@ctom-hv4bu
@ctom-hv4bu Год назад
とてもありがとう
@ctom-hv4bu
@ctom-hv4bu Год назад
最後のコマンド 'python gradio_diffbir.py --ckpt ./general_full_v1.ckpt --config configs/model/cldm.yaml --reload_swinir --swinir_ckpt ./general_swinir_v1.ckpt --device cuda' を実行すると、エラーが発生しました。問題の原因を確認していただけますか?動画の最後で 4 つのモデルをダウンロードしましたが、私は 2 つの一般モデルのみをダウンロードしました。このコマンドはおそらく一般モデルのみを起動するもののようです。@@diffusion-lab
@sinh-pm2ud
@sinh-pm2ud Год назад
まぁエチエチ画像生成専門の俺にはdall-3なんて子供のおもちゃみたいなもんよ
@diffusion-lab
@diffusion-lab Год назад
所長です。ご視聴ありがとうございます。 画像生成に限らず、そちらの方面の専門家がこれらの技術向上に一役買っているのは否めませんけどね・・・w 行きつくところまで行くと、逆に生成物が「おもちゃ」みたいになると思いますので、 どこかで卒業してその先にも進んでみましょう? ※海外勢には負けたくないものです・・・
@diffusion-lab
@diffusion-lab Год назад
AnimateDiffとtravelを利用して、全てのフレームに指示を送る事が出来るようになっています。 また、chatGPTを経由して、自然言語で画像が自在に生成出来るようになりました。 動画も静止画も、作成できる物の品質がどんどん上がっています。 時代がどんどん進んでいきますね・・・置いて行かれないように頑張ります。
@tsuuuka9078
@tsuuuka9078 Год назад
頑張ってください
@tomit284
@tomit284 Год назад
MAC版は無い?
@diffusion-lab
@diffusion-lab Год назад
ご視聴ありがとうございますっ MAC版はビルド保留中との事です・・・残念ですが、動きはある模様ですので 開発に期待ですね! github.com/LykosAI/StabilityMatrix/issues/45
@tomit284
@tomit284 Год назад
@@diffusion-lab ありがとうございます!待ってます。
@diffusion-lab
@diffusion-lab Год назад
StableDiffusionでアニメーションを作成したり、 動画コンテンツからオブジェクトを消去できるツールなどについてお話しながら、 静止画の切り出しや再加工を行うツールの利用方法について解説しています。 所長の最後のやつまぁまぁすごい!悔しい(笑) 私も綺麗なの作ってみたいです・・・ ※こういうのってLive2Dとかでやるほうがストレートなんでしょうかね・・・
@eleanor2681
@eleanor2681 Год назад
いつも見ています。下の方でTensorをテンサーと言ってる方がおりましたが、Tensor及びTenserでもテンソルです。 この場合の日本語読みは、diffusionらぼさんの言ってる通りテンソルです。色んな翻訳機能で調べれば分ります。 まぁ、Stable Diffusionを最初はスターブルデフュージョンと言ってた方がいた位です。なんにせよ、まだまだ 急速すぎるくらいの進歩で完成形などはまだまだ先です。(完成形はないかも)皆で情報共有しましょうね!
@diffusion-lab
@diffusion-lab Год назад
コメントありがとうございますっ この手の発音問題?は、当時の学者サイドや識者がどちらに偏っていたか、 または今現在どちらに偏るか、に依存いますので、正解は無さそうですね・・・ ※各種翻訳機能もその情報を元に設計や設計変更されたりします 本音は、内容がお伝えできればどちらでも良いのかな、なんて思ってたりしています。 技術の進化は本当に早いですね・・・4月くらいの情報なのにすでに数十年前? みたいな感覚に陥ったりします。 毎日とても驚かされる話題がどんどん生まれていますので、検証動画が追いつきません・・・w
@王子あすなっち
@王子あすなっち Год назад
うーん 端折り過ぎて意味分からない
@diffusion-lab
@diffusion-lab Год назад
貴重なご意見ありがとうございます。 一人でも多くの人に分かり易い動画作りを心掛けていきたいと思っています。 ※出来ましたらどの工程のどの部分が・・・みたいな建設的な情報を頂ければ次回の動画で生かしていきたいと思います。 よろしくお願いいたします。
@okiraku_gokuraku
@okiraku_gokuraku Год назад
DiffBIRに関しての質問ですが gradioをダークモードで実行するにはどのファイルにどのように記述すればいいですか? 初心者質問ですみません よろしくお願いします
@diffusion-lab
@diffusion-lab Год назад
ご視聴ありがとうございますっ gradio自体をダークモードで起動、という手順は分からないのですが、 ※無いかもしれません 当環境ではWindows11側でダークモードを採用しています。 該当アプリだけではなく全てがダークになっちゃいますが、それでもよろしければ 設定→個人用設定→色→モードを選ぶ、よりダークを選択なさって下さい。
@okiraku_gokuraku
@okiraku_gokuraku Год назад
@@diffusion-lab ご回答ありがとうございます あれこれ触っていたらブラウザの設定で解決しました お手数おかけしました ありがとうございました
@このみっくすゲームチャンネル4
いつも楽しく拝見しています、今回も参考に導入してみたのですが、triton for windowsの所でエラーが出てtritonがインストール出来ません;;アドバイスお願いいたします
@調理大好き歌
@調理大好き歌 Год назад
これは画期的ですねー!!そうきゅうな❤情報共有どうもありがとうございます!
@diffusion-lab
@diffusion-lab Год назад
@user-nx2te8zq9s @Cutieplus ご視聴ありがとうございます! 本スレ?のほうでもうまく行かない報告上がっていますね・・ どのようなエラーでしょうか? ERROR: triton-2.0.0-cp310-cp310-win_amd64.whl is not a supported wheel on this platform. これとかでしょうかね・・ ひとまず、メイン端末はWindows11Home (base)python 3.10.6 サブ端末は Windows10Home (base)python 3.10.6 という環境で、本動画の手順でインストールは完了します。 特にサブ機はほぼ真っ白な状態で確認していますので、 これ以外に必要なパッケージ類は無いとおもいます。 環境構築手順は間違えずに行ってください。 特にpipの更新とかも影響があるかもしれません。 正常にインストールが行えると、下記が出力されます。 -- Collecting triton==2.0.0 Downloading huggingface.co/r4ziel/xformers_pre_built/resolve/main/triton-2.0.0-cp310-cp310-win_amd64.whl (12.6 MB) ---------------------------------------- 12.6/12.6 MB 65.6 MB/s eta 0:00:00 Collecting cmake (from triton==2.0.0) Obtaining dependency information for cmake from files.pythonhosted.org/packages/e0/67/3cc8ccb0cebac463033e1f8588328de32f8f85cfd9d3150c05b57b827893/cmake-3.27.4.1-py2.py3-none-win_amd64.whl.metadata Downloading cmake-3.27.4.1-py2.py3-none-win_amd64.whl.metadata (6.8 kB) Requirement already satisfied: filelock in e:\0917\diffbir\venv\lib\site-packages (from triton==2.0.0) (3.12.4) Requirement already satisfied: torch in e:\0917\diffbir\venv\lib\site-packages (from triton==2.0.0) (2.0.1+cu118) Requirement already satisfied: typing-extensions in e:\0917\diffbir\venv\lib\site-packages (from torch->triton==2.0.0) (4.7.1) Requirement already satisfied: sympy in e:\0917\diffbir\venv\lib\site-packages (from torch->triton==2.0.0) (1.12) Requirement already satisfied: networkx in e:\0917\diffbir\venv\lib\site-packages (from torch->triton==2.0.0) (3.1) Requirement already satisfied: jinja2 in e:\0917\diffbir\venv\lib\site-packages (from torch->triton==2.0.0) (3.1.2) Requirement already satisfied: MarkupSafe>=2.0 in e:\0917\diffbir\venv\lib\site-packages (from jinja2->torch->triton==2.0.0) (2.1.3) Requirement already satisfied: mpmath>=0.19 in e:\0917\diffbir\venv\lib\site-packages (from sympy->torch->triton==2.0.0) (1.3.0) Downloading cmake-3.27.4.1-py2.py3-none-win_amd64.whl (34.6 MB) ---------------------------------------- 34.6/34.6 MB 50.4 MB/s eta 0:00:00 Installing collected packages: cmake, triton Successfully installed cmake-3.27.4.1 triton-2.0.0 -- 端末のpythonバージョンを下記コマンドで確認してみてください。 python -V こちらが3.11.xとかになっているとNG、という報告があります。 バージョン不一致等が原因の場合は、 pythonのバージョンを3.10.6に合わせる、とかが必要かもしれませんが、異なるバージョンのpython環境をインストールするには少し手間がかかりすぎる為、 ベース環境のpython入れ直し、なども必要になるかもしれません。
@このみっくすゲームチャンネル4
@@diffusion-lab お疲れ様です、丁寧な返信有難う御座います。今帰宅後にもう1回tritonの所だけこの間のまま実行してみた所、何故か今度は上手くインストール出来ました・・・謎です
@diffusion-lab
@diffusion-lab Год назад
劣化している画像をSwinIRの技術とかで綺麗に修復できるツール DiffBIRについてご紹介します。 3.10系のpython環境にて、最新のpytorchでセットアップ可能です。 14日のアップデートでTileにも対応しています! 大きな画像の修復も可能ですね。 また、画像の一部オブジェクトなどを簡単に消すことのできるStableDiffusionの拡張機能、 LamaCreanerについても解説しています。 ※所長声コソコソ練習してるのかな・・・想像しちゃtt
@吉峰聡
@吉峰聡 Год назад
こちらの動画で4、5本目の解説でやっと上手く行きました。ありがとうございました。他の解説ではなぜかSend to extrasへのクリックの案内がなかったです。
@diffusion-lab
@diffusion-lab Год назад
上手くいったようで何よりです。ご視聴ありがとうございますっ この手の情報は構築されている環境によって少し違ったりしますので、 投稿者と同じ状況にならない場合があるのですよね・・・
@吉峰聡
@吉峰聡 Год назад
@@diffusion-lab ちなみに複数画像を一斉に指定したサイズに大きくする方法はあったりしますか?200枚以上の画像を大きくしたりするので。
@diffusion-lab
@diffusion-lab Год назад
@@吉峰聡 はい可能ですよ。Extrasタブの中に「Batch from Directory」というタブがありまして、 この中の Input directoryに、たくさん画像が入ったフォルダを指定。 output directoryに、出力したいフォルダパスを入力。 後は同じようにサイズを指定してGenerateを押すと、全ての画像が指定サイズに拡大できます。
@吉峰聡
@吉峰聡 Год назад
@@diffusion-lab ご教示ありがとうございます!やってみます!
@吉峰聡
@吉峰聡 Год назад
@@diffusion-lab 「指定されたパスが見つかりません」になりました。Input directoryに「file:///C:/stable-diffusion-webui/outputs/txt2img-images/2023-09-08/%E6%8E%...」と入れてみました。お手数ですが、たくさん画像が入ったフォルダを指定の方法についてもご教示いただけましたら助かります。
@diffusion-lab
@diffusion-lab Год назад
ControlNetのバージョンが上がり、SDXL用モデルでも利用可能になりました。 sd-webUIでは初めて利用出来るようになったモデルも含まれるので、 一通り試してみたい感じです。 技術的には昔からあったようですが、reColorなかなか凄いですね・・・
@diffusion-lab
@diffusion-lab Год назад
明日(2023年8月31日)master移行予定の、webUI 1.6の環境について先行構築しています。 RC版となりますが、ほぼ完成版と同じ機能を有しています。 StabilityMatrix経由でのインストールの場合、 ブランチの垣根も意識することなく、気楽にインストール可能です。 UIパッケージインストールフォルダのリンクについて。 だいたい実体と同じフォルダ名が ランチャーインストールフォルダ→Data→Models以下に配置されていますが、 webUI-root→embeddingsフォルダだけ、 ランチャーインストールフォルダ→Data→Models→「TextualInversion」 となっています。他の場所から多段リンクを作成される場合はご注意下さい。