したらばTOP ■掲示板に戻る■ 全部 1-100 最新50 | |
レス数が900を超えています。1000を超えると投稿できなくなるよ。

AI

1WS:2023/03/22(水) 09:50:13
Stable Diffusion & Control-Netを主に

https://jbbs.shitaraba.net/bbs/read.cgi/computer/648/1227567954/951-956

2WS:2023/03/22(水) 09:53:23
日本一わかりやすいStableDiffusion WebUI AUTOMATIC1111(ローカル版)のインストール方法と基本的な使い方
https://www.youtube.com/watch?v=8QIJMGW_-LM


画像生成AIをコントロールするAI ControlNetの使い方
https://www.youtube.com/watch?v=Va75uNNQ3nE

3WS:2023/03/22(水) 10:29:22
画像生成AIのStable Diffusionをインストール不要でブラウザから動作可能な「Web Stable Difusion」が登場
https://gigazine.net/news/20230317-web-stable-diffusion/

4WS:2023/03/22(水) 10:32:12
「Stable Diffusion」を手軽に使ってみよう!
https://pc.watch.impress.co.jp/docs/column/macinfo/1483801.html

5WS:2023/03/22(水) 10:51:38
Stable Diffusion
自分のパソコンにインストールして使う方法
https://kurokumasoft.com/2022/12/20/howto-install-stable-diffusion/

NVIDIAの「GeForce RTX20」シリーズ以降
かつ、VRAM(=ビデオメモリ)容量が10GB以上

Stable Diffusionを手軽に使えるツールを活用しよう
実はStable Diffusion自体は学習モデルという単なるファイルでありそれ単体で画像を生成できるわけではありません。そのため本来は
Stable Diffusionが動作するように環境構築作業をする
画像を生成するためにコマンドラインをたたく
といった面倒なステップを踏む必要があります。

Windows用のツールとして人気が高い2つ
・NMKD Stable Diffusion GUI
・Stable Diffusion web UI

画像生成を行う際に指定する画像のサイズ 基本的には512px程度
生成した画像をきれいに拡大する機能がついているので、それを使うのが一番手っ取り早い
外部ツールを使う場合はGitHubをインストール


ControlNet
「被写体に好きなポーズを取らせることができる技術」

LoRA
「既存のモデルに新しい被写体を学習させる手法」

6WS:2023/03/22(水) 10:52:36
テキスト→画像生成AI「Stable Diffusion」を誰でも使えるようにする「NMKD Stable Diffusion GUI」
https://forest.watch.impress.co.jp/docs/review/1438536.html

7WS:2023/03/22(水) 11:37:31
「Stable Diffusion web UI」のインストール方法・日本語化・使い方まとめ(AUTOMATIC1111版)
https://kurokumasoft.com/2023/02/06/stable-diffusion-web-ui/

公式ページ
github.com/AUTOMATIC1111/stable-diffusion-webui

ローカル環境へのインストール
1. ZIPファイルをダウンロードする
2. 任意のモデルファイルをダウンロードして所定のフォルダに入れる
3. バッチファイルを実行する

1. Release v1.0.0-pre ・ AUTOMATIC1111/stable-diffusion-webui をダウンロードする
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre
sd.webui.zipをDL、run.bat をダブルクリック

8WS:2023/03/22(水) 12:31:55
美少女イラストを生成できるおすすめのモデルまとめ【Stable Diffusion】
kurokumasoft.com/2023/01/25/stable-diffusion-anime-style-models/

Anythingを選択
こっちが定番ラスィ
短い呪文で美少女を生成できるモデル「Anything」が便利!アニメ風イラストを手軽に作ろう【Stable Diffusion】
https://kurokumasoft.com/2023/01/22/stable-diffusion-anything/
Anythingのダウンロード&導入方法
Hugging Face
Anything V4.5
リンク先ページの「Files and Versions」→「anything-v4.5.safetensors」と辿るとモデルファイルをダウンロードできます。
ただしフル版は8GB近くあるので、軽量版が欲しい場合は「anything-v4.5-pruned.safetensors」を選んでください。
軽量版でも違いは感じられない、との事

「Stable Diffusion web UI」をお使いの場合は、モデルとVAEをそれぞれ次のフォルダに移動させます
・モデル:webui/models/Stable-diffusion
・VAE:webui/models/VAE

あとは

web UIの左上のドロップダウンメニューからモデルを選択
設定タブ→「Stable Diffusion」からVAEを選択
すればOKです。

run.bat をダブルクリックすると起動

手順3:バッチファイルを実行する
最後にStable Diffusion web UIのフォルダの中に「run.bat」というバッチファイルがあるのでそれを実行してください。

初めて実行すると、Stable Diffusionの実行に必要な環境を自動的にダウンロード&インストールする処理が走ります。しばらく待ってウィンドウに下記のような記述が出たらインストール成功です。

Running on local URL: http:// 〜
「http:// 〜」と書かれた部分をCtrlを押しながらクリックすると、ブラウザが起動してStable Diffusion web UIが表示されます。

---------------------------------------------------------------------------------------------------
Counterfeitを選択
美少女イラスト生成モデル「Counterfeit」が凄い!ハイクオリティなアニメ風イラストを生成しよう【Stable Diffusion】
https://kurokumasoft.com/2023/01/19/stable-diffusion-counterfeit/
(Hugging Face)からダウンロードできます。最新版はV2.5
https://huggingface.co/gsdf/Counterfeit-V2.5
リンク先ページの「Files and Versions」→「Counterfeit-V2.5.safetensors」と辿るとモデルファイルをダウンロードすることができます
(ファイルサイズが8GB近くあるのでストレージの空き容量に注意してください)。
もし軽量版が欲しい場合は、「Counterfeit-V2.5_fp16.safetensors」のほうを選んでください。
VAE(Counterfeit-V2.5.vae.pt)も配布されているので一緒にダウンロードしましょう。

9WS:2023/03/22(水) 13:49:16
無駄を省いたStable Diffusion Web UIの導入方法。多機能なWindowsローカルGUI環境
https://ossan-gamer.net/post-82301/

Stable Diffusion Web UIをWindows上で動かす場合は、以下のソフトウェア類をインストールする必要があります。
・Python 3.10.6
・Git
これだけあればOKです。
----------------------------------------------------------------------------------------------------
・Python 3.10.6
Python 3.10.6のページ下部から、Windows installer (64-bit)をダウンロードします。
https://www.python.org/downloads/release/python-3106/
※最新の3.11以降では実行時にエラーが出ます。

Pythonのインストーラの最初の画面では、左下に「Add Python 3.10 to PATH」というチェックボタンがあるのでチェックします。
その後、Install Nowを押してインストールを開始します。

インストールが完了した後で「Disable path length limit」というボタンが見えますので、これを押します。

Pythonの動作確認
インストール後にコマンドプロンプトを起動し、「python -V」を実行して、Pythonのバージョンが表示されれば正常にインストールされています。
----------------------------------------------------------------------------------------------------
・Git
公式サイトから64-bitのGit for Windowsの最新版をダウンロードします。
https://gitforwindows.org/
インストール時にSelect Componentsの「Git Bash Here」にチェックを入れておきましょう。
これによってStable Diffusion WebUIのアップデートが楽になります。
その他は特に変更する点はありません。Nextを押していけばOK。
----------------------------------------------------------------------------------------------------

10WS:2023/03/22(水) 14:32:39
インストールエラー
RuntimeError: Cannot add middleware after an application has started
https://wikiwiki.jp/sd_toshiaki/%E3%82%A8%E3%83%A9%E3%83%BC%E8%A7%A3%E6%B1%BA%E3%83%A1%E3%83%A2#id367fcc

起動直後、gradioのリンクが出た後のタイミングでこのエラーが出る。
Stable Diffusionで使用するモジュールのfastapiのバージョンが0.91に更新されたことで発生しているらしい。

Windowsを使っている場合:
1.Stable Diffusionがある場所のvenv(仮想環境)を読み込む。
2.コマンドプロンプトでの表示が(venv)で始まる形式に切り替わったことが確認できたら、下記のコマンドを実行する。

pip install fastapi==0.90.1

3.正常に起動するようになる。
----------------------------------------------------------------------------------------------------
RuntimeError: Cannot add middleware after an application has started
https://wikiwiki.jp/sd_toshiaki/%E3%83%AD%E3%83%BC%E3%82%AB%E3%83%AB%E7%89%88%E5%B0%8E%E5%85%A5#error20230211
WebUIのあるフォルダを開き、アドレスバーをクリックし、cmdと入力してEnterキーを押す。

コマンドプロンプトの画面が表示される。
この画面で、

.\venv\Scripts\activate

と入力して(コピペでOK)Enterキーを押す。
文字の見た目がバックスラッシュだったり円記号だったりするのは、フォントによって変わるだけで同じ文字なので気にしなくてOK。

(venv)で始まる表示に変わる。
この画面で、

pip install fastapi==0.90.1
と入力して(コピペでOK)Enterキーを押す。

11WS:2023/03/22(水) 15:08:02
(3/20 更新)AUTOMATIC1111 WebUI 簡単導入!他環境と競合しないスタンドアローンセットアップ法・改
https://note.com/uunin/n/n715256399038

12WS:2023/03/22(水) 16:56:29
【超初心者向け】Stable Diffusionのインストール方法(Automatic1111) 2023年3月9日
https://blogcake.net/stable-diffusion-automatic1111/

Stable Diffusion(WebUI Automatic1111)の導入には下記の手順が必要になります。

手順
Pythonのインストール
gitのインストール
WebUI Automatic1111のインストール
model(モデル)ファイルのダウンロード
WebUI Automatic1111のインストールの初回起動

1. Pythonにアクセス Downloads>Windows
現在の推奨バージョンはPython 3.10.6 and git(2.39.2)
どのPythonバージョンをインストールするべきかは頻繁に変更される可能性があります。
必ずこちらのドキュメントを確認してください。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs

13WS:2023/03/22(水) 17:42:47
>>12
https://blogcake.net/stable-diffusion-automatic1111/
GitのCloneコマンドは、名前のとおりパッケージのクローンを作成するコマンドです。
このコマンドによって、コマンドに指定したURLからAutomatic1111のファイル群のクローンを、自分のPCにインストールできます。
https://blogcake.net/stable-diffusion-automatic1111/

【"AUTOMATIC1111"はGitを使用してインストールする!!】

▲WebUIをインストールしたいフォルダをエクスプローラーで開きます。
フォルダ内を右クリックして右クリックメニューを開きます。
その他のオプションを表示 > 「Git Bash here」を選択

▲Git Bashという黒い画面が開きます。下記のコマンドを実行してWebUI(Automatic1111)をインストールします。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

コマンドをコピペするときはCtrl+Vが動作しないことがあります。
その場合は、右クリックメニューの中の「Paste」からペーストしてください。

▲Cloneコマンドが成功すると、自分のPCの指定した場所に「Stable-diffusion-webui」フォルダが作成されます。
フォルダの配下はAutomatic1111を構成するファイルやフォルダが確認できます。



【導入手順4:WebUI(Automatic1111)の起動方法】
▲起動方法は、Automatic1111のインストールフォルダ直下のwebui-user.batをダブルクリックします
似たようなファイルが他にもあるので注意してください。
種類の項目が「Windowsバッチファイル」という種別のファイルです。PC環境によっては.batという拡張子が見えない可能性があります。ファイル種類で判断してください。

▲実行すると初回起動時のみ少し時間がかかります(PCスペックにもよりますが、15分〜60分程度)。
しばらく待つと上の図のようにURL【http://127.0.0.1:7860】が表示されるので、Ctrlキーを押しながらURLをクリックしましょう


【コマンドプロンプトは常に表示】
この黒いウインドウ(コマンドプロンプト)は、Automatic1111を使う間は常に表示しておいてください。
このウインドウを閉じるとAutomatic1111が停止します。
つまり、今後もAutomatic1111を起動するときは、このウインドウを表示することになります。
邪魔になるのでタスクトレイに最小化しておきましょう。

14WS:2023/03/22(水) 17:47:19
WebUI(Automatic1111)の起動時にエラーが出たら・・・
https://blogcake.net/webuiautomatic1111-error/


VAEについて
https://blogcake.net/stable-diffusion-models/
VAEとは、ざっくり説明すると「きれいな画像生成を助けるためのファイル」です。
VAEがない状態で画像生成を行うと、モデルの紹介ページにあるサンプル画像とはちょっと違った雰囲気になることがあります。モヤモヤと靄がかかったようなぼやけた感じです。
このような症状に困ったときは、モデルのディスクリプションを確認し、推奨するVAEファイルが明記されていないか確認し、あればVAEを適用しましょう。

VAEで画像のモヤモヤを除去しよう。
https://blogcake.net/stable-diffusion-vae/

15WS:2023/03/22(水) 18:59:29
>>13
http://127.0.0.1:7860 を直接Chromeに入力はして使用可能か?

16WS:2023/03/22(水) 19:15:53
Stable Diffusion 呪文
https://kurokumasoft.com/2023/01/04/stable-diffusion-prompt-tips/

Stable Diffusion 呪文・プロンプトまとめ
https://harusdia.hatenablog.com/entry/2023/02/20/105410

17WS:2023/03/22(水) 19:26:37
AUTOMATIC1111でimg2imgを使って画像を生成する方法 | Stable Diffusion高機能Web UIの活用法
https://murasan-net.com/index.php/2023/03/07/automatic1111-img2img/

Stable Diffusion 2.0 img2imgで実写から美しい風景イラストを生成する方法
https://murasan-net.com/index.php/2023/01/31/stable-diffusion-2-img2img/


Stable DiffusionでControlNetを使ってキャラクターのポーズを指定する方法
https://murasan-net.com/index.php/2023/02/27/stable-diffusion-controlnet-posesetting/


イラストを描画できるAI!Stable Diffusionの使い方
murasan-net.com/index.php/2022/10/26/stable-diffusion-summary/


Stable Diffusionを自在に操る!パラメータの使い方を解説 | Pythonでの実装方法
murasan-net.com/index.php/2023/02/07/stable-diffusion-parameter/

18WS:2023/03/22(水) 20:07:01
AIで画像を高画質化するソフト有料・無料おすすめ6選
https://videobeginners.com/increase-images-quality-software/

Bigjpg AI人工知能画像拡大ソフトウェア
https://bigjpg.com/ 
画質を損なうことなく画像を最大16倍に拡大してくれるソフト
一部無料;二ヶ月間6ドル、半年間12ドル、年間22ドル
アニメ(二次元)やイラストの画像の画質を上げるには一番効果的


Waifu2x
http://waifu2x.udp.jp/index.ja.html 
無料オンラインサイト
画像を2倍ぐらい拡大するならセーフ

19WS:2023/03/23(木) 10:55:40
ControlNet:

棒人間で表現した好きなポーズをAIでイラスト化するまとめ
https://webbigdata.jp/post-17794/

ControlNetを使うと好きなポーズを取ってもらう事が出来る

・線画に色を塗って貰う使い方も可能
従来のゼロからイラストを生成する使い方以外にも、自分の描いた線画と大まかな色塗りの指示を与えるだけで、
controlnetを使ってフルカラーイラストを仕上げる事が出来るので、
イラストを描ける人にとっても恩恵になっているようです。

・カスタムモデルにも適用が容易
本家版のControlNetはStable Diffusion1.5が同梱されており1つのファイルにまとまっていますが、チェックポイント同士のマージを行う事で、カスタムモデルをControlNetで制御する事が可能になっています。
(あなたの作ったカスタムモデル) + (ControlNet + stable diffusion1.5) ? stable diffusion1.5 = (あなたの作ったカスタムモデル + ControlNet)
現時点では、ControlNetを適用するカスタムモデルはstable diffusion1.5を元に微調整/マージしたモデルである必要があります。詳細は、本家githubページ内をご覧ください。

20WS:2023/03/23(木) 11:24:57
Stable Diffusion関連記事のまとめ
https://webbigdata.jp/what-is-ai/page-15290/

AUTOMATIC1111を自分のWindows 10パソコンにインストール/セットアップする手順
https://webbigdata.jp/post-17502/

InvokeAIを自分のWindows 10パソコンにインストール/セットアップする手順
https://webbigdata.jp/post-17560/
InvokeAIは、商用サービスに丸ごと採用されたりもしているので、AUTOMATIC1111よりはフォーマルな対応を好む感触で、デザインも洗練されています。

21WS:2023/03/23(木) 11:28:30
ControlNet としあきdiffusion Wiki*
https://wikiwiki.jp/sd_toshiaki/ControlNet

この技術のこと。https://github.com/lllyasviel/ControlNet
上記を1111上で簡便に利用できるように拡張機能化したsd-webui-controlnetのこと。

導入手順
拡張機能sd-webui-controlnetを導入する
この部分は一般的な拡張機能の導入方法と同様

1111に拡張機能を入れるのは今回が初めて…という傾奇者向けの詳しい説明
 1111を起動後にExtensionsのタブを開く
 Install from URLのタブを開く
 上の欄に https://github.com/Mikubill/sd-webui-controlnet を入力して Install ボタンを押す
 数秒立つとInstallボタンの下にDL完了を知らせるメッセージが出る
 Installedのタブを開く
Apply and restart UI を押す



1111(コマンドプロンプトとブラウザページ両方)を一旦終了
https://huggingface.co/webui/ControlNet-modules-safetensors/tree/main
control〜と名前が付いた723MBモデルが8つあるのでDLする(合計5.4GB)
「火遁の術」「水遁の術」みたいなもので、それぞれ効果の効かせ方と得意な用途が異なるから全部落としとけ

「t2i〜とか名前がついてるやつは要らないの…?」
 それらは「T2I-Adapter」っていう、テスト中の機能のためのモデル。
 だから今のところ必要ない。まあファイルサイズ小さいし、DLしといても害にはならないけど…
 でも現時点では情報不足で、どんな用途に向いてるのかあんまよく分かってないよ

\extensions\sd-webui-controlnet\models に突っ込む
1111を起動するとtxt2imgやimg2imgの左下
Scripitの上に[ControlNet ?]のパネルが追加されている

22WS:2023/03/23(木) 11:38:47
ポーズや構図を指定してサクッと好みのイラスト画像を生成しまくれる「ControlNet」&「Stable Diffusion」の合わせ技を試してみたよレビュー
https://gigazine.net/news/20230216-stable-diffusion-controlnet/

◆1:ControlNet拡張機能を「Stable Diffusion web UI(AUTOMATIC1111版)」にインストール
「Stable Diffusion web UI(AUTOMATIC1111版)」を起動したら、
「拡張機能」をクリックしてから「URLからインストール」をクリックし、
URL入力欄に「https://github.com/Mikubill/sd-webui-controlnet」と入力して「インストール」をクリックします。

インストールが完了したら「インストール済」をクリックして画面下部の拡張機能一覧に「sd-webui-controlnet」があることを確認し、
「適用してUIを再起動」をクリック。

「txt2img」タブの最下部に「ControlNet」が表示されていれば、拡張機能のインストールは完了です。


◆2:ControlNetのモデルデータをダウンロード
続いて、以下のリンク先にアクセスしてControlNetのモデルデータをダウンロードします。
webui/ControlNet-modules-safetensors at main
https://huggingface.co/webui/ControlNet-modules-safetensors/tree/main
リンク先には、モデレーターがズラリと並んでいます。
今回は「ポーズを指定して画像生成」という機能を使いたいので「control_openpose-fp16.safetensors」をクリック。

続いて「download」をクリックしてモデルデータ(ファイルサイズ689MB)をダウンロードします。
以下のようなファイルをダウンロードできたらOK。

続いて、「Stable Diffusion web UI(AUTOMATIC1111版)」のインストールフォルダ内を「extensions」→「sd-webui-controlnet」→「models」と移動し、
「models」フォルダ内にダウンロードしたモデルデータを移動します。
「models」フォルダ内にモデルデータが存在する状態になれば準備完了です。


◆3:ControlNetを用いて参考画像から骨格データを抽出して画像生成
ControlNetを使って「ポーズを指定した画像」を生成するには、ポーズの参考画像を準備する必要があります。
参考画像は背景がシンプルなものがベター。

画像を生成するには、まず「txt2img」タブの最下部に配置された「ControlNet」をクリック。
すると、「ControlNet」の設定項目が表示されます。

「ポーズを指定した画像」を生成する場合は、「Enable」にチェックを入れた後、「Preprocessor」で「openpose」を選択し、
「モデル」でダウンロードしたモデルデータを選択します。
さらに、参考画像の解像度も入力します。

続いて、「ここに画像をドロップ」と記された部分に参考画像をドラッグ&ドロップします。
以下のように参考画像が表示されればOK。

次に、プロンプトを入力して「生成」をクリックします。今回は「girl, yoga」と入力しました。
しばらく待つと、画像が「ポーズの骨格画像」と共に出力されます。


◆4:デザインドールでポーズを自作して画像生成
上記の手順で「ポーズを指定した画像」は生成できますが、好みのポーズの参考画像を探し出すのは手間がかかります。
そこで、無料で使えるポージングツール「デザインドール」を使って、好みのポーズの参考画像を作成してみます。
デザインドールを使うには、まず以下のリンク先にアクセス。

デザインドール | 次世代デッサン人形
https://terawell.net/ja/index.php

続いて「ダウンロード」をクリックします。
以下の画面が表示されたら「ダウンロード」をクリックしてインストーラー(ファイルサイズ43.2MB)をダウンロードします。
インストーラーをダウンロードしたら、ダブルクリックして起動します。
インストールが完了したら「DesignDollを実行する」にチェックを入れて「完了」をクリックします。

インストールが完了すると、デザインドールが起動します。画面内に表示された人形の足や手をドラッグすると、各部位を動かせるので、好みのポーズを取らせます。

23WS:2023/03/23(木) 11:59:53
画像生成AI「Stable Diffusion」を4GBのGPUでも動作OK
&自分の絵柄を学習させるなどいろいろな機能を簡単にGoogle ColaboやWindowsで動かせる決定版「Stable Diffusion web UI(AUTOMATIC1111版)」
インストール方法まとめ
https://gigazine.net/news/20220907-automatic1111-stable-diffusion-webui/

24WS:2023/03/23(木) 13:32:40
Stable Diffusion
AUTOMATIC1111でimg2imgを使って生成する方法
https://murasan-net.com/index.php/2023/03/07/automatic1111-img2img/

25WS:2023/03/23(木) 13:33:46
AUTOMATIC1111でVAEを変更する方法 | Stable Diffusion高機能Web UIの活用法
https://murasan-net.com/index.php/2023/02/14/automatic1111-vae-setting/

26WS:2023/03/23(木) 14:15:06
画像生成AIにモデルを追加する方法【AUTOMATIC1111 Stable Diffusion web UI】
https://www.youtube.com/watch?v=6r8TLYMctAE

27WS:2023/03/23(木) 14:56:27
Stable Diffusion WebUIのカスタム設定
https://happy-shibusawake.com/stable-diffusion-webui-setting/1331/
Stable DiffusionのWebUI、AUTOMATIC1111に新たなモデルを追加する方法

モデルの追加は、オンラインでダウンロードしたsafetensorsファイルやckptファイルを「stable-diffusion-webui」のフォルダの下の、「models」フォルダの中の一番上にコピーします。
その状態で、WebUIを起動すると「models」のフォルダ内の適切な場所に入れてくれます。
modelsのフォルダの一番上からなくなったら成功です。

モデルについては、huggingfaceのサイトなどからダウンロードできますが、自己責任でお願いします。
モデルの使用は著作権、使用許諾等にご注意ください。
また、ウイルスが仕込まれている可能性の噂もありますので、信頼できるものをお使いください。

28WS:2023/03/23(木) 15:10:30
Stable Diffusion2.1をベースにアジア圏の実写やアニメ1500万枚以上から学習したモデルWD1.5 Beta 2
https://happy-shibusawake.com/wd1-5-beta-2/1426/

WD1.5 Beta2モデル
https://huggingface.co/waifu-diffusion/wd-1-5-beta2/tree/main/checkpoints
wd-1-5-beta2-aesthetic-fp32.safetensors をDL
「\stable-diffusion-webui\models」にコピー

「webui-user.bat」を実行します。
実行すると、「models」フォルダに入っていた「wd-1-5-beta2-aesthetic-fp32.safetensors」は
「models\Stable-diffusion」に自動的に取り込まれます。

「txt2img」で画像を生成
アニメ絵の場合
(waifu, anime, exceptional, best aesthetic, new, newest, best quality, masterpiece, extremely detailed:1.2)

実写の場合
(waifu, realistic, real life, exceptional, best aesthetic, new, newest, best quality, masterpiece:1.2)

また、ネガティブプロンプトには以下のプロンプトを入れておいた方が無難でしょう。
lowres, ((bad anatomy)), ((bad hands)), text, missing finger, extra digits, fewer digits, blurry, ((mutated hands and fingers)), (poorly drawn face), ((mutation)), ((deformed face)), (ugly), ((bad proportions)), ((extra limbs)), extra face, (double head), (extra head), ((extra feet)), monster, logo, cropped, worst quality, jpeg, humpbacked, long body, long neck, ((jpeg artifacts)), deleted, old, oldest, ((censored)), ((bad aesthetic)), (mosaic censoring, bar censor, blur censor)

29WS:2023/03/23(木) 15:12:12
>>28
以下のエラーが起こる場合、メッセージに従って、「settings」→「Stable-diffusion」の「Upcast cross attention layer to float32」にチェックを入れるとよいようです。

modules.devices.NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.

30WS:2023/03/23(木) 15:35:41
img2img
読み込ませる絵を512x512にし、
不要なものが生成されたら随時ネガティブプロンプトに英単語をぷっこんでいくと、
写真に近いイラストが生成されていく

31WS:2023/03/23(木) 16:10:03
Controlnet
AIイラストの進化スピードが早すぎてもはや完全にゲームチェンジしてる
https://togetter.com/li/2096590
線画から色塗りができる
テスト用に512?768の小さいサイズを沢山生成

主線をそのままに解像度を上げていくこともできる
「線に忠実に作ったもの」とこちらの「AI修正を強めに掛けたもの」をいいとこ取りで融合させることも可能。


Stable diffusionの機能「#controlnet」を使って、線画に着色する方法について
https://studiomasakaki.fanbox.cc/posts/5435518
月1000円支援中

32WS:2023/03/23(木) 16:17:38
>>31
layerdivider
https://github.com/mattyamonaca/layerdivider

「layerdivider」 (作者は抹茶もなかさん)
塗りごとにレイヤー分けしpsdにする

線画抽出機能はないのでcannyを使用して線画レイヤーを追加した。

33WS:2023/03/23(木) 17:23:39
Control-Netの導入と基本的な使い方解説!自由自在にポージングしたり塗りだけAIでやってみよう!【Stable Diffusion】
https://www.youtube.com/watch?v=5uGt_t4t1iU


ポーズを指定して画像を生成できる「ControlNet」の使い方【Stable Diffusion web UI】
https://kurokumasoft.com/2023/02/16/stable-diffusion-controlnet/

AIで適当な線画を清書し、さらに色を塗って高品質なイラストに仕上げる方法【ControlNet活用術】
https://kurokumasoft.com/2023/03/10/colorize-drawings-with-controlnet/

ControlNet用のポーズを簡単に作れる「Openpose Editor」の使い方【Stable Diffusion web UI】
kurokumasoft.com/2023/02/21/openpose-editor/

AIが苦手な「手」を正確に描かせるための拡張機能「Depth map library and poser」の紹介【ControlNet】
kurokumasoft.com/2023/03/04/sd-webui-depth-lib/

3Dモデルを画像生成の元画像にできる拡張機能「Stable Diffusion WebUI 3D Model Loader」の紹介
kurokumasoft.com/2023/03/18/web-ui-3d-model-loader/

ControlNetで検索
kurokumasoft.com/?s=ControlNet

34WS:2023/03/24(金) 15:19:00
リアル画像用学習モデル LoRA
https://www.youtube.com/watch?v=KhQPSEC8Zvo

Tifa_meenow(Meenow氏)
Tifa_meenowろかにはちひふ.とちはいかいみとらすと
トリガーワード:tifa lockhart, red_eyes, black hair, long hair,
models > LoRAに入れる

prompt
<lora:tifaMeenow_tifaV2:0.75>,tifa lockhart,red_eyes,black hair,long hair,

Negative prompt
worst quality,low quality,EasyNegative,ng_deepnegative_v1_75t,

35WS:2023/03/24(金) 15:20:40
chilloutmix
Tifa_meenow用推奨モデル

ChilloutMixの使い方
https://original-game.com/how-to-use-chilloutmix/

ディレクトリ配置
safetensorsファイルのみを「stable-diffusion-webui/models/Stable-diffusion/」へ

-----------------------------------------------------
Cute Joints Dolls Lora(set999氏)
トリガーワード:doll,dd,

36WS:2023/03/24(金) 15:29:14
WD1.5 Beta 2+Web UIで高画質アニメ絵生成環境構築
https://happy-shibusawake.com/wd1-5-beta-2/1426/

HuggingFaceから入手

WD1.5 Beta2ではプロンプトの設定に少し癖があります。

使用プロンプト
芸術性 exceptional>best aesthetic>normal aesthetic>bad aesthetic
評価 masterpiece>best quality>high quality>medium quality>normal quality>low quality>worst quality
削除された画像:deleted
理想の女性像:waifu
実写:real life
アニメ:anime
インスタ:instagram


プロンプトには以下のものを後ろに追加するとよいようです。
アニメ絵の場合
(waifu, anime, exceptional, best aesthetic, new, newest, best quality, masterpiece, extremely detailed:1.2)

実写の場合
(waifu, realistic, real life, exceptional, best aesthetic, new, newest, best quality, masterpiece:1.2)


ネガティブプロンプト推奨
lowres, ((bad anatomy)), ((bad hands)), text, missing finger, extra digits, fewer digits, blurry, ((mutated hands and fingers)), (poorly drawn face), ((mutation)), ((deformed face)), (ugly), ((bad proportions)), ((extra limbs)), extra face, (double head), (extra head), ((extra feet)), monster, logo, cropped, worst quality, jpeg, humpbacked, long body, long neck, ((jpeg artifacts)), deleted, old, oldest, ((censored)), ((bad aesthetic)), (mosaic censoring, bar censor, blur censor)

37WS:2023/03/24(金) 15:32:25
WD1.5 Beta2+WebUI+ControlNetで高画質画像生成環境構築
https://happy-shibusawake.com/wd1-5-beta2-webui-controlnet/1518/

WD1.5 Beta 2
モデルとしては通常版とAestheticバージョン、Frost Aestheticバージョンの3種類があります。


WebUIでStable Diffusion 1からの手順
https://happy-shibusawake.com/webui_stable-diffusion/968/


すでにWebUIをインストールしている場合も、最新のAUTOMATIC1111にアップデートすること
Stable Diffusion WebUI、AUTOMATIC1111のアップデート方法
https://happy-shibusawake.com/webui-update/1520/

38WS:2023/03/24(金) 16:54:13
controlnet canny 使い方
www.youtube.com/results?search_query=controlnet+canny+%E4%BD%BF%E3%81%84%E6%96%B9

Control-Netの導入と基本的な使い方解説!自由自在にポージングしたり塗りだけAIでやってみよう!【Stable Diffusion】
https://www.youtube.com/watch?v=5uGt_t4t1iU


【AIお絵かき】ControlNetを使った線画の色付けテクニック
https://www.youtube.com/watch?v=XWNeNOwFM_c
中国語だが日本語字幕あり

39WS:2023/03/24(金) 17:20:14
スタジオ真榊
AIを使って「線画に色塗り」をしてもらおう!【StableDiffusionWebUI】
https://studiomasakaki.fanbox.cc/posts/5435518

線画をControlnetに放り込み、preprosessor「canny」、モデルも「canny」で生成します。

線画、つまり白い背景のイラストからcanny抽出する場合は、「invert Input color」(色調反転)にチェックを入れておきましょう。

Canvasは線画と生成画像のサイズを一致させる

Annotator resolusion(抽出処理)の値。極端に高かったり、低かったりすると失敗する
Annotator resolusionは800〜1200

768?512サイズにHiresを強さ0.5で掛けて1.5倍サイズに

※Cannyのweightがいずれも「1」なので、細部を見比べると当初の線画からは微妙に離れていることがわかります。
より線画を忠実に塗りたい場合は、weightを強めていくことになります。

特に色を指定しないと、AIはこのように、自由な判断で色を塗ってくれます。
プロンプト指定で「red hair」や「Black wear」などと色を指定して、塗りを傾向づけることもできますし、
「shiny skin」「cloth reflecting light」「backlighting」「cinematic lighting」「flat color」といったタグで好みの塗り・露光に近づけることも当然可能です。

【線画をそのまま塗るためには?】
hires.fix(高解像度補助)を掛けていると線画と乖離する

参考画像の線画がある場合、
「hires:OFF」「preprosessor:none」で生成する

wildcard機能を使うとカラーをランダムに生成できる

ノイズ除去強度0.5で2倍サイズにアップスケール

40WS:2023/03/24(金) 18:04:35
ControlNet使用
ベタ塗り絵&線画を使用して画像生成
-----------------------------------------------------------
モデルはanything
-----------------------------------------------------------
img2imgタグを使い、上に線画+ベタ色塗り

prompt
(best quality, masterpiece:1.2),1 girl,naked,tentacle,blue wimple,high heels,Brown Hair,

Negative prompt
worst quality,low quality, (EasyNegative:1.5)

-----------------------------------------------------------
ControlNetに線画のみの画像を入れ、Enable、invert Input Colorにチェック
Preprocessor none
Model control_canny-fp16

41WS:2023/03/24(金) 22:37:22
アニメ風イラスト生成用の学習モデル
https://kurokumasoft.com/2022/12/19/stable-diffusion-anime-girls/

●TrinArt Derrida modelを使用
https://huggingface.co/naclbit/trinart_derrida_characters_v2_stable_diffusion/tree/main
derrida_final.ckptをDL

Stable Diffusion web UI(AUTOMATIC1111版)の場合
webui/models/Stable-diffusion へ上記モデルを移動

●プロンプト(=呪文)の基本的なコツ
プロンプト
very cute and beautiful girl, (アニメ風美少女のイラスト)
very cute and beautiful anime face and eyes (理想に近いアニメ風美少女のイラスト)
extremely beautiful detailed anime face and eyes (厚塗りタッチアニメ風美少女のイラスト)
school girl
maid girl

ネガティブプロンプト
flat color, flat shading, nsfw

(R18ならnsfwはプロンプトへ)
nsfw 「職場閲覧注意」という意味のスラング


新着レスの表示


名前: E-mail(省略可)

※書き込む際の注意事項はこちら

※画像アップローダーはこちら

(画像を表示できるのは「画像リンクのサムネイル表示」がオンの掲示板に限ります)

掲示板管理者へ連絡 無料レンタル掲示板