したらばTOP ■掲示板に戻る■ 全部 1-100 最新50 | |
レス数が900を超えています。1000を超えると投稿できなくなるよ。

AI

10WS:2023/03/22(水) 14:32:39
インストールエラー
RuntimeError: Cannot add middleware after an application has started
https://wikiwiki.jp/sd_toshiaki/%E3%82%A8%E3%83%A9%E3%83%BC%E8%A7%A3%E6%B1%BA%E3%83%A1%E3%83%A2#id367fcc

起動直後、gradioのリンクが出た後のタイミングでこのエラーが出る。
Stable Diffusionで使用するモジュールのfastapiのバージョンが0.91に更新されたことで発生しているらしい。

Windowsを使っている場合:
1.Stable Diffusionがある場所のvenv(仮想環境)を読み込む。
2.コマンドプロンプトでの表示が(venv)で始まる形式に切り替わったことが確認できたら、下記のコマンドを実行する。

pip install fastapi==0.90.1

3.正常に起動するようになる。
----------------------------------------------------------------------------------------------------
RuntimeError: Cannot add middleware after an application has started
https://wikiwiki.jp/sd_toshiaki/%E3%83%AD%E3%83%BC%E3%82%AB%E3%83%AB%E7%89%88%E5%B0%8E%E5%85%A5#error20230211
WebUIのあるフォルダを開き、アドレスバーをクリックし、cmdと入力してEnterキーを押す。

コマンドプロンプトの画面が表示される。
この画面で、

.\venv\Scripts\activate

と入力して(コピペでOK)Enterキーを押す。
文字の見た目がバックスラッシュだったり円記号だったりするのは、フォントによって変わるだけで同じ文字なので気にしなくてOK。

(venv)で始まる表示に変わる。
この画面で、

pip install fastapi==0.90.1
と入力して(コピペでOK)Enterキーを押す。

11WS:2023/03/22(水) 15:08:02
(3/20 更新)AUTOMATIC1111 WebUI 簡単導入!他環境と競合しないスタンドアローンセットアップ法・改
https://note.com/uunin/n/n715256399038

12WS:2023/03/22(水) 16:56:29
【超初心者向け】Stable Diffusionのインストール方法(Automatic1111) 2023年3月9日
https://blogcake.net/stable-diffusion-automatic1111/

Stable Diffusion(WebUI Automatic1111)の導入には下記の手順が必要になります。

手順
Pythonのインストール
gitのインストール
WebUI Automatic1111のインストール
model(モデル)ファイルのダウンロード
WebUI Automatic1111のインストールの初回起動

1. Pythonにアクセス Downloads>Windows
現在の推奨バージョンはPython 3.10.6 and git(2.39.2)
どのPythonバージョンをインストールするべきかは頻繁に変更される可能性があります。
必ずこちらのドキュメントを確認してください。
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Install-and-Run-on-NVidia-GPUs

13WS:2023/03/22(水) 17:42:47
>>12
https://blogcake.net/stable-diffusion-automatic1111/
GitのCloneコマンドは、名前のとおりパッケージのクローンを作成するコマンドです。
このコマンドによって、コマンドに指定したURLからAutomatic1111のファイル群のクローンを、自分のPCにインストールできます。
https://blogcake.net/stable-diffusion-automatic1111/

【"AUTOMATIC1111"はGitを使用してインストールする!!】

▲WebUIをインストールしたいフォルダをエクスプローラーで開きます。
フォルダ内を右クリックして右クリックメニューを開きます。
その他のオプションを表示 > 「Git Bash here」を選択

▲Git Bashという黒い画面が開きます。下記のコマンドを実行してWebUI(Automatic1111)をインストールします。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

コマンドをコピペするときはCtrl+Vが動作しないことがあります。
その場合は、右クリックメニューの中の「Paste」からペーストしてください。

▲Cloneコマンドが成功すると、自分のPCの指定した場所に「Stable-diffusion-webui」フォルダが作成されます。
フォルダの配下はAutomatic1111を構成するファイルやフォルダが確認できます。



【導入手順4:WebUI(Automatic1111)の起動方法】
▲起動方法は、Automatic1111のインストールフォルダ直下のwebui-user.batをダブルクリックします
似たようなファイルが他にもあるので注意してください。
種類の項目が「Windowsバッチファイル」という種別のファイルです。PC環境によっては.batという拡張子が見えない可能性があります。ファイル種類で判断してください。

▲実行すると初回起動時のみ少し時間がかかります(PCスペックにもよりますが、15分〜60分程度)。
しばらく待つと上の図のようにURL【http://127.0.0.1:7860】が表示されるので、Ctrlキーを押しながらURLをクリックしましょう


【コマンドプロンプトは常に表示】
この黒いウインドウ(コマンドプロンプト)は、Automatic1111を使う間は常に表示しておいてください。
このウインドウを閉じるとAutomatic1111が停止します。
つまり、今後もAutomatic1111を起動するときは、このウインドウを表示することになります。
邪魔になるのでタスクトレイに最小化しておきましょう。

14WS:2023/03/22(水) 17:47:19
WebUI(Automatic1111)の起動時にエラーが出たら・・・
https://blogcake.net/webuiautomatic1111-error/


VAEについて
https://blogcake.net/stable-diffusion-models/
VAEとは、ざっくり説明すると「きれいな画像生成を助けるためのファイル」です。
VAEがない状態で画像生成を行うと、モデルの紹介ページにあるサンプル画像とはちょっと違った雰囲気になることがあります。モヤモヤと靄がかかったようなぼやけた感じです。
このような症状に困ったときは、モデルのディスクリプションを確認し、推奨するVAEファイルが明記されていないか確認し、あればVAEを適用しましょう。

VAEで画像のモヤモヤを除去しよう。
https://blogcake.net/stable-diffusion-vae/

15WS:2023/03/22(水) 18:59:29
>>13
http://127.0.0.1:7860 を直接Chromeに入力はして使用可能か?

16WS:2023/03/22(水) 19:15:53
Stable Diffusion 呪文
https://kurokumasoft.com/2023/01/04/stable-diffusion-prompt-tips/

Stable Diffusion 呪文・プロンプトまとめ
https://harusdia.hatenablog.com/entry/2023/02/20/105410

17WS:2023/03/22(水) 19:26:37
AUTOMATIC1111でimg2imgを使って画像を生成する方法 | Stable Diffusion高機能Web UIの活用法
https://murasan-net.com/index.php/2023/03/07/automatic1111-img2img/

Stable Diffusion 2.0 img2imgで実写から美しい風景イラストを生成する方法
https://murasan-net.com/index.php/2023/01/31/stable-diffusion-2-img2img/


Stable DiffusionでControlNetを使ってキャラクターのポーズを指定する方法
https://murasan-net.com/index.php/2023/02/27/stable-diffusion-controlnet-posesetting/


イラストを描画できるAI!Stable Diffusionの使い方
murasan-net.com/index.php/2022/10/26/stable-diffusion-summary/


Stable Diffusionを自在に操る!パラメータの使い方を解説 | Pythonでの実装方法
murasan-net.com/index.php/2023/02/07/stable-diffusion-parameter/

18WS:2023/03/22(水) 20:07:01
AIで画像を高画質化するソフト有料・無料おすすめ6選
https://videobeginners.com/increase-images-quality-software/

Bigjpg AI人工知能画像拡大ソフトウェア
https://bigjpg.com/ 
画質を損なうことなく画像を最大16倍に拡大してくれるソフト
一部無料;二ヶ月間6ドル、半年間12ドル、年間22ドル
アニメ(二次元)やイラストの画像の画質を上げるには一番効果的


Waifu2x
http://waifu2x.udp.jp/index.ja.html 
無料オンラインサイト
画像を2倍ぐらい拡大するならセーフ

19WS:2023/03/23(木) 10:55:40
ControlNet:

棒人間で表現した好きなポーズをAIでイラスト化するまとめ
https://webbigdata.jp/post-17794/

ControlNetを使うと好きなポーズを取ってもらう事が出来る

・線画に色を塗って貰う使い方も可能
従来のゼロからイラストを生成する使い方以外にも、自分の描いた線画と大まかな色塗りの指示を与えるだけで、
controlnetを使ってフルカラーイラストを仕上げる事が出来るので、
イラストを描ける人にとっても恩恵になっているようです。

・カスタムモデルにも適用が容易
本家版のControlNetはStable Diffusion1.5が同梱されており1つのファイルにまとまっていますが、チェックポイント同士のマージを行う事で、カスタムモデルをControlNetで制御する事が可能になっています。
(あなたの作ったカスタムモデル) + (ControlNet + stable diffusion1.5) ? stable diffusion1.5 = (あなたの作ったカスタムモデル + ControlNet)
現時点では、ControlNetを適用するカスタムモデルはstable diffusion1.5を元に微調整/マージしたモデルである必要があります。詳細は、本家githubページ内をご覧ください。

20WS:2023/03/23(木) 11:24:57
Stable Diffusion関連記事のまとめ
https://webbigdata.jp/what-is-ai/page-15290/

AUTOMATIC1111を自分のWindows 10パソコンにインストール/セットアップする手順
https://webbigdata.jp/post-17502/

InvokeAIを自分のWindows 10パソコンにインストール/セットアップする手順
https://webbigdata.jp/post-17560/
InvokeAIは、商用サービスに丸ごと採用されたりもしているので、AUTOMATIC1111よりはフォーマルな対応を好む感触で、デザインも洗練されています。

21WS:2023/03/23(木) 11:28:30
ControlNet としあきdiffusion Wiki*
https://wikiwiki.jp/sd_toshiaki/ControlNet

この技術のこと。https://github.com/lllyasviel/ControlNet
上記を1111上で簡便に利用できるように拡張機能化したsd-webui-controlnetのこと。

導入手順
拡張機能sd-webui-controlnetを導入する
この部分は一般的な拡張機能の導入方法と同様

1111に拡張機能を入れるのは今回が初めて…という傾奇者向けの詳しい説明
 1111を起動後にExtensionsのタブを開く
 Install from URLのタブを開く
 上の欄に https://github.com/Mikubill/sd-webui-controlnet を入力して Install ボタンを押す
 数秒立つとInstallボタンの下にDL完了を知らせるメッセージが出る
 Installedのタブを開く
Apply and restart UI を押す



1111(コマンドプロンプトとブラウザページ両方)を一旦終了
https://huggingface.co/webui/ControlNet-modules-safetensors/tree/main
control〜と名前が付いた723MBモデルが8つあるのでDLする(合計5.4GB)
「火遁の術」「水遁の術」みたいなもので、それぞれ効果の効かせ方と得意な用途が異なるから全部落としとけ

「t2i〜とか名前がついてるやつは要らないの…?」
 それらは「T2I-Adapter」っていう、テスト中の機能のためのモデル。
 だから今のところ必要ない。まあファイルサイズ小さいし、DLしといても害にはならないけど…
 でも現時点では情報不足で、どんな用途に向いてるのかあんまよく分かってないよ

\extensions\sd-webui-controlnet\models に突っ込む
1111を起動するとtxt2imgやimg2imgの左下
Scripitの上に[ControlNet ?]のパネルが追加されている

22WS:2023/03/23(木) 11:38:47
ポーズや構図を指定してサクッと好みのイラスト画像を生成しまくれる「ControlNet」&「Stable Diffusion」の合わせ技を試してみたよレビュー
https://gigazine.net/news/20230216-stable-diffusion-controlnet/

◆1:ControlNet拡張機能を「Stable Diffusion web UI(AUTOMATIC1111版)」にインストール
「Stable Diffusion web UI(AUTOMATIC1111版)」を起動したら、
「拡張機能」をクリックしてから「URLからインストール」をクリックし、
URL入力欄に「https://github.com/Mikubill/sd-webui-controlnet」と入力して「インストール」をクリックします。

インストールが完了したら「インストール済」をクリックして画面下部の拡張機能一覧に「sd-webui-controlnet」があることを確認し、
「適用してUIを再起動」をクリック。

「txt2img」タブの最下部に「ControlNet」が表示されていれば、拡張機能のインストールは完了です。


◆2:ControlNetのモデルデータをダウンロード
続いて、以下のリンク先にアクセスしてControlNetのモデルデータをダウンロードします。
webui/ControlNet-modules-safetensors at main
https://huggingface.co/webui/ControlNet-modules-safetensors/tree/main
リンク先には、モデレーターがズラリと並んでいます。
今回は「ポーズを指定して画像生成」という機能を使いたいので「control_openpose-fp16.safetensors」をクリック。

続いて「download」をクリックしてモデルデータ(ファイルサイズ689MB)をダウンロードします。
以下のようなファイルをダウンロードできたらOK。

続いて、「Stable Diffusion web UI(AUTOMATIC1111版)」のインストールフォルダ内を「extensions」→「sd-webui-controlnet」→「models」と移動し、
「models」フォルダ内にダウンロードしたモデルデータを移動します。
「models」フォルダ内にモデルデータが存在する状態になれば準備完了です。


◆3:ControlNetを用いて参考画像から骨格データを抽出して画像生成
ControlNetを使って「ポーズを指定した画像」を生成するには、ポーズの参考画像を準備する必要があります。
参考画像は背景がシンプルなものがベター。

画像を生成するには、まず「txt2img」タブの最下部に配置された「ControlNet」をクリック。
すると、「ControlNet」の設定項目が表示されます。

「ポーズを指定した画像」を生成する場合は、「Enable」にチェックを入れた後、「Preprocessor」で「openpose」を選択し、
「モデル」でダウンロードしたモデルデータを選択します。
さらに、参考画像の解像度も入力します。

続いて、「ここに画像をドロップ」と記された部分に参考画像をドラッグ&ドロップします。
以下のように参考画像が表示されればOK。

次に、プロンプトを入力して「生成」をクリックします。今回は「girl, yoga」と入力しました。
しばらく待つと、画像が「ポーズの骨格画像」と共に出力されます。


◆4:デザインドールでポーズを自作して画像生成
上記の手順で「ポーズを指定した画像」は生成できますが、好みのポーズの参考画像を探し出すのは手間がかかります。
そこで、無料で使えるポージングツール「デザインドール」を使って、好みのポーズの参考画像を作成してみます。
デザインドールを使うには、まず以下のリンク先にアクセス。

デザインドール | 次世代デッサン人形
https://terawell.net/ja/index.php

続いて「ダウンロード」をクリックします。
以下の画面が表示されたら「ダウンロード」をクリックしてインストーラー(ファイルサイズ43.2MB)をダウンロードします。
インストーラーをダウンロードしたら、ダブルクリックして起動します。
インストールが完了したら「DesignDollを実行する」にチェックを入れて「完了」をクリックします。

インストールが完了すると、デザインドールが起動します。画面内に表示された人形の足や手をドラッグすると、各部位を動かせるので、好みのポーズを取らせます。

23WS:2023/03/23(木) 11:59:53
画像生成AI「Stable Diffusion」を4GBのGPUでも動作OK
&自分の絵柄を学習させるなどいろいろな機能を簡単にGoogle ColaboやWindowsで動かせる決定版「Stable Diffusion web UI(AUTOMATIC1111版)」
インストール方法まとめ
https://gigazine.net/news/20220907-automatic1111-stable-diffusion-webui/

24WS:2023/03/23(木) 13:32:40
Stable Diffusion
AUTOMATIC1111でimg2imgを使って生成する方法
https://murasan-net.com/index.php/2023/03/07/automatic1111-img2img/

25WS:2023/03/23(木) 13:33:46
AUTOMATIC1111でVAEを変更する方法 | Stable Diffusion高機能Web UIの活用法
https://murasan-net.com/index.php/2023/02/14/automatic1111-vae-setting/

26WS:2023/03/23(木) 14:15:06
画像生成AIにモデルを追加する方法【AUTOMATIC1111 Stable Diffusion web UI】
https://www.youtube.com/watch?v=6r8TLYMctAE

27WS:2023/03/23(木) 14:56:27
Stable Diffusion WebUIのカスタム設定
https://happy-shibusawake.com/stable-diffusion-webui-setting/1331/
Stable DiffusionのWebUI、AUTOMATIC1111に新たなモデルを追加する方法

モデルの追加は、オンラインでダウンロードしたsafetensorsファイルやckptファイルを「stable-diffusion-webui」のフォルダの下の、「models」フォルダの中の一番上にコピーします。
その状態で、WebUIを起動すると「models」のフォルダ内の適切な場所に入れてくれます。
modelsのフォルダの一番上からなくなったら成功です。

モデルについては、huggingfaceのサイトなどからダウンロードできますが、自己責任でお願いします。
モデルの使用は著作権、使用許諾等にご注意ください。
また、ウイルスが仕込まれている可能性の噂もありますので、信頼できるものをお使いください。

28WS:2023/03/23(木) 15:10:30
Stable Diffusion2.1をベースにアジア圏の実写やアニメ1500万枚以上から学習したモデルWD1.5 Beta 2
https://happy-shibusawake.com/wd1-5-beta-2/1426/

WD1.5 Beta2モデル
https://huggingface.co/waifu-diffusion/wd-1-5-beta2/tree/main/checkpoints
wd-1-5-beta2-aesthetic-fp32.safetensors をDL
「\stable-diffusion-webui\models」にコピー

「webui-user.bat」を実行します。
実行すると、「models」フォルダに入っていた「wd-1-5-beta2-aesthetic-fp32.safetensors」は
「models\Stable-diffusion」に自動的に取り込まれます。

「txt2img」で画像を生成
アニメ絵の場合
(waifu, anime, exceptional, best aesthetic, new, newest, best quality, masterpiece, extremely detailed:1.2)

実写の場合
(waifu, realistic, real life, exceptional, best aesthetic, new, newest, best quality, masterpiece:1.2)

また、ネガティブプロンプトには以下のプロンプトを入れておいた方が無難でしょう。
lowres, ((bad anatomy)), ((bad hands)), text, missing finger, extra digits, fewer digits, blurry, ((mutated hands and fingers)), (poorly drawn face), ((mutation)), ((deformed face)), (ugly), ((bad proportions)), ((extra limbs)), extra face, (double head), (extra head), ((extra feet)), monster, logo, cropped, worst quality, jpeg, humpbacked, long body, long neck, ((jpeg artifacts)), deleted, old, oldest, ((censored)), ((bad aesthetic)), (mosaic censoring, bar censor, blur censor)

29WS:2023/03/23(木) 15:12:12
>>28
以下のエラーが起こる場合、メッセージに従って、「settings」→「Stable-diffusion」の「Upcast cross attention layer to float32」にチェックを入れるとよいようです。

modules.devices.NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check.

30WS:2023/03/23(木) 15:35:41
img2img
読み込ませる絵を512x512にし、
不要なものが生成されたら随時ネガティブプロンプトに英単語をぷっこんでいくと、
写真に近いイラストが生成されていく

31WS:2023/03/23(木) 16:10:03
Controlnet
AIイラストの進化スピードが早すぎてもはや完全にゲームチェンジしてる
https://togetter.com/li/2096590
線画から色塗りができる
テスト用に512?768の小さいサイズを沢山生成

主線をそのままに解像度を上げていくこともできる
「線に忠実に作ったもの」とこちらの「AI修正を強めに掛けたもの」をいいとこ取りで融合させることも可能。


Stable diffusionの機能「#controlnet」を使って、線画に着色する方法について
https://studiomasakaki.fanbox.cc/posts/5435518
月1000円支援中

32WS:2023/03/23(木) 16:17:38
>>31
layerdivider
https://github.com/mattyamonaca/layerdivider

「layerdivider」 (作者は抹茶もなかさん)
塗りごとにレイヤー分けしpsdにする

線画抽出機能はないのでcannyを使用して線画レイヤーを追加した。

33WS:2023/03/23(木) 17:23:39
Control-Netの導入と基本的な使い方解説!自由自在にポージングしたり塗りだけAIでやってみよう!【Stable Diffusion】
https://www.youtube.com/watch?v=5uGt_t4t1iU


ポーズを指定して画像を生成できる「ControlNet」の使い方【Stable Diffusion web UI】
https://kurokumasoft.com/2023/02/16/stable-diffusion-controlnet/

AIで適当な線画を清書し、さらに色を塗って高品質なイラストに仕上げる方法【ControlNet活用術】
https://kurokumasoft.com/2023/03/10/colorize-drawings-with-controlnet/

ControlNet用のポーズを簡単に作れる「Openpose Editor」の使い方【Stable Diffusion web UI】
kurokumasoft.com/2023/02/21/openpose-editor/

AIが苦手な「手」を正確に描かせるための拡張機能「Depth map library and poser」の紹介【ControlNet】
kurokumasoft.com/2023/03/04/sd-webui-depth-lib/

3Dモデルを画像生成の元画像にできる拡張機能「Stable Diffusion WebUI 3D Model Loader」の紹介
kurokumasoft.com/2023/03/18/web-ui-3d-model-loader/

ControlNetで検索
kurokumasoft.com/?s=ControlNet

34WS:2023/03/24(金) 15:19:00
リアル画像用学習モデル LoRA
https://www.youtube.com/watch?v=KhQPSEC8Zvo

Tifa_meenow(Meenow氏)
Tifa_meenowろかにはちひふ.とちはいかいみとらすと
トリガーワード:tifa lockhart, red_eyes, black hair, long hair,
models > LoRAに入れる

prompt
<lora:tifaMeenow_tifaV2:0.75>,tifa lockhart,red_eyes,black hair,long hair,

Negative prompt
worst quality,low quality,EasyNegative,ng_deepnegative_v1_75t,

35WS:2023/03/24(金) 15:20:40
chilloutmix
Tifa_meenow用推奨モデル

ChilloutMixの使い方
https://original-game.com/how-to-use-chilloutmix/

ディレクトリ配置
safetensorsファイルのみを「stable-diffusion-webui/models/Stable-diffusion/」へ

-----------------------------------------------------
Cute Joints Dolls Lora(set999氏)
トリガーワード:doll,dd,

36WS:2023/03/24(金) 15:29:14
WD1.5 Beta 2+Web UIで高画質アニメ絵生成環境構築
https://happy-shibusawake.com/wd1-5-beta-2/1426/

HuggingFaceから入手

WD1.5 Beta2ではプロンプトの設定に少し癖があります。

使用プロンプト
芸術性 exceptional>best aesthetic>normal aesthetic>bad aesthetic
評価 masterpiece>best quality>high quality>medium quality>normal quality>low quality>worst quality
削除された画像:deleted
理想の女性像:waifu
実写:real life
アニメ:anime
インスタ:instagram


プロンプトには以下のものを後ろに追加するとよいようです。
アニメ絵の場合
(waifu, anime, exceptional, best aesthetic, new, newest, best quality, masterpiece, extremely detailed:1.2)

実写の場合
(waifu, realistic, real life, exceptional, best aesthetic, new, newest, best quality, masterpiece:1.2)


ネガティブプロンプト推奨
lowres, ((bad anatomy)), ((bad hands)), text, missing finger, extra digits, fewer digits, blurry, ((mutated hands and fingers)), (poorly drawn face), ((mutation)), ((deformed face)), (ugly), ((bad proportions)), ((extra limbs)), extra face, (double head), (extra head), ((extra feet)), monster, logo, cropped, worst quality, jpeg, humpbacked, long body, long neck, ((jpeg artifacts)), deleted, old, oldest, ((censored)), ((bad aesthetic)), (mosaic censoring, bar censor, blur censor)

37WS:2023/03/24(金) 15:32:25
WD1.5 Beta2+WebUI+ControlNetで高画質画像生成環境構築
https://happy-shibusawake.com/wd1-5-beta2-webui-controlnet/1518/

WD1.5 Beta 2
モデルとしては通常版とAestheticバージョン、Frost Aestheticバージョンの3種類があります。


WebUIでStable Diffusion 1からの手順
https://happy-shibusawake.com/webui_stable-diffusion/968/


すでにWebUIをインストールしている場合も、最新のAUTOMATIC1111にアップデートすること
Stable Diffusion WebUI、AUTOMATIC1111のアップデート方法
https://happy-shibusawake.com/webui-update/1520/

38WS:2023/03/24(金) 16:54:13
controlnet canny 使い方
www.youtube.com/results?search_query=controlnet+canny+%E4%BD%BF%E3%81%84%E6%96%B9

Control-Netの導入と基本的な使い方解説!自由自在にポージングしたり塗りだけAIでやってみよう!【Stable Diffusion】
https://www.youtube.com/watch?v=5uGt_t4t1iU


【AIお絵かき】ControlNetを使った線画の色付けテクニック
https://www.youtube.com/watch?v=XWNeNOwFM_c
中国語だが日本語字幕あり

39WS:2023/03/24(金) 17:20:14
スタジオ真榊
AIを使って「線画に色塗り」をしてもらおう!【StableDiffusionWebUI】
https://studiomasakaki.fanbox.cc/posts/5435518

線画をControlnetに放り込み、preprosessor「canny」、モデルも「canny」で生成します。

線画、つまり白い背景のイラストからcanny抽出する場合は、「invert Input color」(色調反転)にチェックを入れておきましょう。

Canvasは線画と生成画像のサイズを一致させる

Annotator resolusion(抽出処理)の値。極端に高かったり、低かったりすると失敗する
Annotator resolusionは800〜1200

768?512サイズにHiresを強さ0.5で掛けて1.5倍サイズに

※Cannyのweightがいずれも「1」なので、細部を見比べると当初の線画からは微妙に離れていることがわかります。
より線画を忠実に塗りたい場合は、weightを強めていくことになります。

特に色を指定しないと、AIはこのように、自由な判断で色を塗ってくれます。
プロンプト指定で「red hair」や「Black wear」などと色を指定して、塗りを傾向づけることもできますし、
「shiny skin」「cloth reflecting light」「backlighting」「cinematic lighting」「flat color」といったタグで好みの塗り・露光に近づけることも当然可能です。

【線画をそのまま塗るためには?】
hires.fix(高解像度補助)を掛けていると線画と乖離する

参考画像の線画がある場合、
「hires:OFF」「preprosessor:none」で生成する

wildcard機能を使うとカラーをランダムに生成できる

ノイズ除去強度0.5で2倍サイズにアップスケール

40WS:2023/03/24(金) 18:04:35
ControlNet使用
ベタ塗り絵&線画を使用して画像生成
-----------------------------------------------------------
モデルはanything
-----------------------------------------------------------
img2imgタグを使い、上に線画+ベタ色塗り

prompt
(best quality, masterpiece:1.2),1 girl,naked,tentacle,blue wimple,high heels,Brown Hair,

Negative prompt
worst quality,low quality, (EasyNegative:1.5)

-----------------------------------------------------------
ControlNetに線画のみの画像を入れ、Enable、invert Input Colorにチェック
Preprocessor none
Model control_canny-fp16

41WS:2023/03/24(金) 22:37:22
アニメ風イラスト生成用の学習モデル
https://kurokumasoft.com/2022/12/19/stable-diffusion-anime-girls/

●TrinArt Derrida modelを使用
https://huggingface.co/naclbit/trinart_derrida_characters_v2_stable_diffusion/tree/main
derrida_final.ckptをDL

Stable Diffusion web UI(AUTOMATIC1111版)の場合
webui/models/Stable-diffusion へ上記モデルを移動

●プロンプト(=呪文)の基本的なコツ
プロンプト
very cute and beautiful girl, (アニメ風美少女のイラスト)
very cute and beautiful anime face and eyes (理想に近いアニメ風美少女のイラスト)
extremely beautiful detailed anime face and eyes (厚塗りタッチアニメ風美少女のイラスト)
school girl
maid girl

ネガティブプロンプト
flat color, flat shading, nsfw

(R18ならnsfwはプロンプトへ)
nsfw 「職場閲覧注意」という意味のスラング

42WS:2023/03/24(金) 22:56:19
【StableDiffusion】初めてのAIお絵かき講座 その3 オススメプロンプト編【WaifuDiffusion】
https://www.youtube.com/watch?v=QEZhycL0RkM

AUTOMATIC1111 の Prompt Editing
http://dskjal.com/deeplearning/waifu-diffusion-workflow.html#sd-prompt-tips

実際に出力した画像とプロンプト
https://twitter.com/BeamManP/status/1585935601010081793

43WS:2023/03/25(土) 07:08:53
Photoshop スーパー解像度の使い方【Adobe Camera RAW】
https://321web.link/super-resolution/

Adobe Bridgeがインストールされていない場合はAdobe CCソフトからインストールしておきましょう。
スーパー解像度はCamera Rawの機能です。Camera RawはPhotoshopプラグインですが、現在のところPhotoshopから直接スーパー解像度を使うことはできません。
Adobe Bridge経由でCamera Rawを使うのでまずはAdobe Bridgeを起動します。


スーパー解像度の使い方は以下のとおり。

Adobe Bridgeを開く
JPEGまたはTIFF、RAWをファイルを右クリック
Camera Rawで開くを選択
画像を右クリックして【強化】
スーパー解像度にチェック
強化を選択して【開く】を選択
Photoshopが起動し強化済画像が表示される

44WS:2023/03/25(土) 08:14:44
>>43
Camera RAWはpngだと開けないので要変換

45WS:2023/03/25(土) 08:21:46
>>43
「強化」は2倍まで。1回のみしかできない。

46WS:2023/03/25(土) 19:22:34
LoRAを使った学習のやり方まとめ!
好きな絵柄・キャラクターのイラストを生成しよう【Stable Diffusion】
https://kurokumasoft.com/2023/02/24/stable-diffusion-lora/

47WS:2023/03/25(土) 19:34:16
【2023年最新版】2023年から始めるイラストAI「Stable Diffusion」
ローカル環境を作ってイラストマイニングを始めよう
https://taron88wordpress.net/2023/01/13/2023aiillust/

Anything-V3.0で検証 シード固定
プロンプト(3d:2.0)
アニメ絵のようなキャラ塗りとなる


Stable Diffusionでかわいい2次元キャラを作りたいプロンプト
https://note.com/nice_azalea499/n/n536b0d6611b1

Stable Diffusion Prompt (呪文)攻略
https://note.com/siba_dot/n/n0a8691208632

48WS:2023/03/26(日) 21:53:17
Multi ControlNetを使ってみた。
人物と背景2枚の絵を重ね合わせ
https://www.youtube.com/watch?v=sRMG0SwOUPk

49WS:2023/03/27(月) 18:17:56
まとめ記事
http://iroirosokuhou.com/archives/36248225.html

animelike2D って最新のAI試してる
このクオリティで描ける
twitter.com/cicada3301_kig/status/1637971818345803777

google colabを使用
twitter.com/cicada3301_kig/status/1637980572957163520

Murasan Lab
AUTOMATIC1111をGoogle Colabで使用する方法 | Stable Diffusion高機能Web UIの活用法
https://murasan-net.com/index.php/2023/02/10/automatic1111-colab/


civitai
animelike2Dのページは消滅中


「商用利用しないで」みたいな事描いてるね。
twitter.com/umiyuki_ai/status/1637619913824292866

50WS:2023/03/27(月) 19:42:20
Adobeが独自のジェネレーティブAI「Firefly」を発表、PhotoshopやIllustratorといったCreative Cloudへの統合も
https://gigazine.net/news/20230322-adobe-firefly/

Fireflyでどのような画像生成およびテキストエフェクトが行えるのか

テキストボックスに「シーンを冬の日に変更」と入力して「Generate」をクリック。
すると、鮮やかな緑が特徴的だった風景写真が一瞬で冬の日のワンシーンに変わります。
さらに、「雪が積もった冬の日」や「雪が解けてきた冬の日」、「雪が降る冬の日」などバリエーションまで用意してくれているのがわかります。
動画のように雪がしんしんと降り積もっていきます。

時計の3Dモデル。
バンド部分にレザーのテクスチャを適用。
さらに、時計の筐体部分に金属テクスチャを配置。
すると、レザーおよび金属テクスチャのバリエーションをFireflyが用意してくれます。

芝生のイラストを青色で塗りつぶします。
テクスチャの中から「River」を選択。
するとべた塗りの青色が美麗な川に変わりました。
木を配置。バリエーションも豊富です。
こんな感じで建物や生き物などを配置するだけで、美麗なイラストを簡単に生成できます。

51WS:2023/03/28(火) 10:25:11
VRoid(3D)とLora(追加学習)でオリキャラを学習させてAI画像を一次創作の肥やしにする
https://note.com/852wa/n/n22c877b403f0

・VRoidStudio(3D)
・場合によってはペイントソフト
・Lora(追加学習/colab可)
・WebUI等のLoraが使えるAI

平面に強いモデルに対してLoraを使ったほうが結果は良くなりそうです。

52WS:2023/03/28(火) 10:26:34
「AI漫画」を描こう。1(「AI漫画」という別ジャンルの考え方)
note.com/852wa/n/n44eac77087e3

53WS:2023/03/28(火) 17:03:18
アニメ調彩色 モデル&呪文

aikzu
https://www.chichi-pui.com/posts/2ea9a4f7-0deb-46b2-8c67-5fe0df82243f/

プロンプト
1girl,(masterpiece:1.1),best quality, (highres:0.9),
<lora:fashionGirl_v50:0.4>,
<lora:LORAFlatColor_flatColor:0.3>,
garter straps, (school uniform:1.0), from below, (running:1.1), (street:1.1), pantyhose, large breasts, ,red hair,

ネガティブプロンプト
(EasyNegative:1.0), (bad_prompt_version2:0.8), (sketch by bad-artist:0.8), (ng_deepnegative_v1_75t:0.8)


本当はモデル
AnimeStyleLora_v10ForAOM3A1
が良いのだが、現在消滅中

54WS:2023/03/28(火) 17:09:31
>>53
aikzu あぶないですよ
https://www.chichi-pui.com/posts/b3c491f8-8074-4c0f-9b7d-25d7c04a95c9/

プロンプト
1girl,solo,(masterpiece:1.2), (best quality:1.1), highres, <lora:LORAFlatColor_flatColor:0.5>, <lora:fashionGirl_v50:0.5>, magnificent background, Authentic and detailed face, maid, Epic Light and Shadow, full body, (magic circle), holding japanese sword, pov BREAK, (midnight urban street), blue hair,full moon, thighhighs,

ネガティブプロンプト
(worst quality:1.4), (low quality:1.4), (monochrome:1.1), (EasyNegative:1.0), (bad_prompt_version2:0.8), (sketch by bad-artist:0.8), (ng_deepnegative_v1_75t:0.8)



いきますよ
https://www.chichi-pui.com/posts/174b7029-cf14-4f55-9c68-865a6fc6093d/

プロンプト
1girl,solo,(masterpiece:1.2), (best quality:1.1), highres, <lora:LORAFlatColor_flatColor:0.6>, <lora:fashionGirl_v50:0.5>, magnificent background, Authentic and detailed face, maid, Epic Light and Shadow, full body, magic circle, holding japanese sword and gun,from above, midnight urban street

ネガティブプロンプト
(worst quality:1.4), (low quality:1.4), (monochrome:1.1), (EasyNegative:1.0), (bad_prompt_version2:0.8), (sketch by bad-artist:0.8), (ng_deepnegative_v1_75t:0.8)

55WS:2023/03/28(火) 17:19:15
>>54
LORAFlatColor_flatColor
で検索

https://www.google.com/search?q=LORAFlatColor_flatColor&amp;rlz=1C1TKQJ_jaJP1000JP1000&amp;sxsrf=APwXEdfYqgWDJninn5I3wLkIAbnoMxVH_A%3A1679991512407&amp;ei=2KIiZMDBGMnv-QbjwbCQBg&amp;ved=0ahUKEwjAjcqKmP79AhXJd94KHeMgDGIQ4dUDCA8&amp;uact=5&amp;oq=LORAFlatColor_flatColor&amp;gs_lcp=Cgxnd3Mtd2l6LXNlcnAQAzIECCMQJzIECCMQJ0oECEEYAVCOB1iOB2CACmgBcAB4AIABW4gBW5IBATGYAQCgAQHAAQE&amp;sclient=gws-wiz-serp

56WS:2023/03/28(火) 17:29:43
桜と可愛い女の子
https://www.chichi-pui.com/posts/0fa504f9-62f5-4a6e-9f98-f9350c2978d1/
Stable Diffusion

プロンプト
masterpiece, a very cute and beautiful girl, highly detailed face and eyes, clearly outlined, single character, beautiful blue hair, beautiful blue eyes, smile,1girl, sunlight, school uniform, background cherry blossoms and beautiful sky, spring, fold hands behind, dynamic pose, from above, standing,

ネガティブプロンプト
painting, sketches,(worst quality:2),(low quality:2),(normal quality:2),((monochrome)),((grayscale)), missing fingers ,skin spots ,acnes , skin blemishes, nsfw, bad finger,

57WS:2023/03/28(火) 18:45:47
モデル Anything
LORAFlatColor_flatColor
fashionGirl_v50

プロンプト
1girl,(masterpiece:1.1),best quality, (highres:0.9),<lora:fashionGirl_v50:0.4>,<lora:LORAFlatColor_flatColor:1.0>, (school uniform:1.0), from below, (running:1.1), (street:1.1),

ネガティブプロンプト
((EasyNegative:1.0)), (bad_prompt_version2:0.8), (sketch by bad-artist:0.8), (ng_deepnegative_v1_75t:0.8)

58WS:2023/03/28(火) 20:58:53
ショットの呼び方
https://www.curioscene.com/difference-of-shots-in-cinematography/
海外では被写体から遠い順に
ワイドショット(WS)、Wide shot
フルショット(FS)、
ミディアムワイドショット(MWS)、
ミディアムショット(MS)
になります。

Close-up shot
遠い順にミディアムクローズアップ(MCU)、Close-up shot
クローズアップ(CU)、
エキストリームクローズアップ(ECU)

建物の外観や風景
Long shot
Wide Shot

人物や物の全体像が見えるショット
フルフィギュア(Full Figure)
英: フルショット(Full shot)

59WS:2023/03/29(水) 07:31:45
huggingface
huggingface.co/andite/anything-v4.0/tree/main

anything-v4.0-pruned.safetensors
anything-v4.0.vae.pt
をDL

60WS:2023/03/29(水) 07:34:36
>>59
短い呪文でハイクオリティな美少女イラストを生成できるStable Diffusionモデル「Anything」
https://kurokumasoft.com/2023/01/22/stable-diffusion-anything/

導入方法
Stable Diffusion web UIの場合
まず「Stable Diffusion web UI」をお使いの場合は、モデルとVAEをそれぞれ次のフォルダに移動させます。

モデル:webui/models/Stable-diffusion
VAE:webui/models/VAE
あとは

web UIの左上のドロップダウンメニューからモデルを選択
設定タブ→「Stable Diffusion」からVAEを選択
すればOKです。

61WS:2023/03/29(水) 07:46:22
>>59
【2023年版】Stable Diffusion モデルまとめ
https://blogcake.net/stable-diffusion-models/

Stable Diffusionのモデル

下記サイトで「SafeTensorsファイル(セーフテンサーズ)」か「ckptファイル(チェックポイント)」を探す
Hugging Face https://huggingface.co/
civitai https://civitai.com/
モデルはprunedと名前が付き、拡張子Safetensorsのものを選ぶ

62WS:2023/03/29(水) 08:01:17
>>58
構図参考例
Close up
Wide shot
medium shot
full shot

63WS:2023/03/29(水) 18:29:50
井上純一(希有馬) 3月27日
https://twitter.com/KEUMAYA/status/1640228401029210112
クリスタに無料で入ってる教室あるじゃないですか。
それをAI絵の新しい技術「ControlNet」に下絵として入力するんですよ。
するとですね……

この絵のプロンプトは
(masterpiece:1.2, best quality), (real picture, intricate details), classroom, sunrays,
です。

https://twitter.com/KEUMAYA/status/1640644581481123843
やり方ですが、どこでもいいのでAI画像が作成できるサービスに入って、ポーズコントロールもしくはControlNetという部分に背景の絵を読み込ませるだけです。
3Dそのままより線画にした方が精度がいいようです。

64WS:2023/04/01(土) 00:00:53
【Adobe アドビ】AIツール「Firefly - ファイアーフライ」で出来る24のこと
https://www.youtube.com/watch?v=FV4f8pJ6Eeo

65WS:2023/04/01(土) 09:52:49
顔がきれいにできないんだけど?【Stable Diffusion web UI Hires. fix】
https://www.youtube.com/watch?v=Rutj8V99awM
・Sumpling Stepの回数が多いと、画像の密度が上がるが20〜30で充分
・full body で全身図となる。 a girlと入れると、服を脱いだ女性が多くなる
・musterpieceとプロンプトに追加すると、
・画像サイズが512×512だと顔が汚い。
・画像サイズを768以上にすると、人物が増えて破綻する
・Hires. fixにチェックを入れると、小さい画像を作ってから拡大する
 UpscalerをLatent(アニメ調)、Upscale by を2(VRAMが8GBの場合)にすると、512×512を1024×1024にした画像が出てくる
 拡大にもAIを使うため、顔が破綻しなくなる
 2倍に拡大すると、生成時間は5倍となる
・Denoising strengthを調整する。小さいと元画像に近く、大きいと別の画像に近くなる。


【Stable Diffusion web UI Prompt】
プロンプトの特殊な構文の書き方 2023.03.10
https://www.youtube.com/watch?v=3gudjmhtjZY

・seedを固定(Seedの花びらボタンを押す) 同じ絵が出るようになる
・プロンプトの単語(birds など)を選択し、(Ctrl + ↑3回)で(birds:1.3)となり、目的画像を多く描き出せるようになる
・言葉を()で区切れば強調できるが、現在は(birds:1.3)「鳥の数を1.3倍に」という書き方が主流
・言葉を抑制したいときは(birds:0.5)などと書く
・[ ]大カッコは画像の差し替えを意味してしまうため、使用しない
 [a girl : a dog :8]とすると、8ステップ目に画像が少女から犬に切り替わり、犬顔少女となる
・[cow | horse] in a field とすると、1ステップ毎にサンプル画像が牛と馬で切り替わり、合成した体形の動物となる
・a cat AND a dogとすると、猫犬が混ざった動物となる

66WS:2023/04/01(土) 09:54:42
Signal Flag "Z" 画像生成AI解説リスト
https://www.youtube.com/watch?v=mHDMl3OudFU&amp;list=PLGrlPu8h4zU-blxmMrgh5acL9FuFJO8U_

67WS:2023/04/05(水) 20:34:49
超初心者向けAIコスプレ作成講座!インストールと基本的な使い方までわかりやすく解説(Stable Diffusion)
https://www.youtube.com/watch?v=mxhUGgsiX_k&amp;list=PLee2xr0n9TBkw74Xtr3Cd8AS7HvazCA8r

68WS:2023/04/05(水) 21:30:11
美少女キャラ簡単作成 stable diffusion WEB-UI導入方法
https://www.youtube.com/watch?v=JumiB0JkNHw

69WS:2023/04/05(水) 21:33:03
【AIイラスト】VAE導入方法と便利な使い方。StableDiffusion WebUIへの設定方法やダウンロード方法を解説
https://www.youtube.com/watch?v=MXeojZz7w_0

【ControlNet】使い方とインストール方法。AIイラストに便利な神機能を紹介StableDiffusion WebUI/AUTOMATIC1111
https://www.youtube.com/watch?v=est8fD9xhEM

70WS:2023/04/05(水) 21:59:16
「AI生成作品」「AI一部利用」項目の新設につきまして
https://cs.dlsite.com/hc/ja/articles/12924267427865--AI%E7%94%9F%E6%88%90%E4%BD%9C%E5%93%81-AI%E4%B8%80%E9%83%A8%E5%88%A9%E7%94%A8-%E9%A0%85%E7%9B%AE%E3%81%AE%E6%96%B0%E8%A8%AD%E3%81%AB%E3%81%A4%E3%81%8D%E3%81%BE%E3%81%97%E3%81%A6


AIを利用した作品につきましては、以下2点を設定必須とした上で、順次販売とさせていただきます。
・「AI生成作品」または「AI一部利用」項目を選択
・作品紹介文内にて、AI利用程度、利用箇所を購入するユーザー様に分かりやすいように記載

「AI生成作品」項目:
AIでの生成物をメインコンテンツとして利用している場合

「AI一部利用」項目:
マンガ、ゲームの背景使用等、AI生成物の利用が限定的な部分に留まり、
購入したユーザー様が一部のみのAI利用であると納得いただけるような制作物の場合
※自動補正や補間等、制作過程での機能の利用は該当しません。

71WS:2023/04/07(金) 06:18:55
喋るAIイラストを無料で作る方法を解説
https://www.youtube.com/watch?v=iMfTYIAhrMo

72WS:2023/04/07(金) 06:48:11
LORA、DBで学習させて、好きなキャラやアイドルを完全コピーする方法、完全解説【AI絵師、Stable Diffusion】
https://www.youtube.com/watch?v=gbA871SNCls

73WS:2023/04/07(金) 06:55:07
Stable Diffusionエラー対策法集、起動できない、インストールできない、止まった、画像を保存させない方法
【AI絵師、Stable Diffusion】
https://www.youtube.com/watch?v=DGImfB7IegM


AIイラスト、AIグラビアの完成度を跳ね上げるVAEの導入完全解説!
【AI絵師、Stable Diffusion】
https://www.youtube.com/watch?v=DZNOrmIMQRc


【ControlNet】
元絵から,写真から同じ姿勢(ポーズ)のAIイラスト生成のやり方♪Stable Diffusion webUI?automatic1111?
https://www.youtube.com/watch?v=hbi_XQpClHc

74WS:2023/04/07(金) 07:15:50
画像生成AI Stable Deffusionの謎パラメーター Sampling StepsとCFG Scaleはどう影響するのか?
https://www.youtube.com/watch?v=1VIEueQQ7hk
15〜30で固定すると良い

75WS:2023/04/07(金) 18:48:29
VAE導入方法と便利な使い方。StableDiffusion WebUIへの設定方法やダウンロード方法を解説
https://www.youtube.com/watch?v=MXeojZz7w_0

76WS:2023/04/08(土) 10:45:18
【AIグラビア】
商用利用可能なChilloutMix『chilled_re-generic』を使ったAIイラスト生成の完全解説!
【AI絵師、Stable Diffusion】
https://www.youtube.com/watch?v=lRfeDyNRpgk
リアル3D系

【AIグラビア】
AIイラスト、AIグラビアの完成度を跳ね上げるVAEの導入完全解説!
【AI絵師、Stable Diffusion
https://www.youtube.com/watch?v=DZNOrmIMQRc

【AIグラビア、LoRA、LoCon】
ガッキーそっくりのAIイラスト、AIグラビアの作り方完全解説!
【AI絵師、Stable Diffusion】
https://www.youtube.com/watch?v=xAQ-tITakfM

77WS:2023/04/08(土) 11:15:52
【AIグラビア、LoRA、LoCon】
Stable Diffusionエラー対策法集、起動できない、インストールできない、止まった、画像を保存させない方法
【AI絵師、Stable Diffusion】
https://www.youtube.com/watch?v=DGImfB7IegM


【AIグラビア、LoRA、LoCon】 LORA アニメキャラ学習
スマホでも出来る!!LORAで好きな絵師の画風を完全コピーする方法、完全解説、ポケカのさいとうなおき先生編
【AI絵師、Stable Diffusion】
https://www.youtube.com/watch?v=-omM46Yj2yM

【AIグラビア、LoRA、LoCon】
スマホでも出来る!LORA、DBで学習させて、好きなキャラやアイドルを完全コピーする方法、完全解説
【AI絵師、Stable Diffusion】
https://www.youtube.com/watch?v=gbA871SNCls

78WS:2023/04/08(土) 11:18:04
【AIグラビア】
日本一わかりやすいChilloutMix+StableDiffusion WebUI AUTOMATIC1111でAIグラビアの作り方
【AI絵師、Stable Diffusion】
https://www.youtube.com/watch?v=gVAUggAlwXg

79WS:2023/04/10(月) 20:47:44
一度3Dポーズ人形&背景とプロンプトで参考画像生成

顔だけ線画描いてコントロールネット

AI画像をグレーにし
グリザイユ技法で着彩する事で色味を合わせる

80WS:2023/04/11(火) 13:33:01
美少女も思いのまま!ポーズを指定して描いてもらえる!
stable diffusion WEB-UI controlnet AIイラスト
【ゆっくり解説】【VOICEROID解説】
https://www.youtube.com/watch?v=VFNoy0BDNhc


■作業手順
1.controlnetを導入。

a.WEB-UI操作
extensionのタブを開く
Install from URLのタブを開く
上段の空欄に
https://github.com/Mikubill/sd-webui-...
をコピペしたのちに、Installボタンをクリック。

InstalledのタブをクリックしてApply and restart UIをクリック。

b.ファイルのダウンロードと移動
こちらのリンクに移動
https://huggingface.co/webui/ControlN...

ファイル名に「canny」または「openpose」と書いてあるものをダウンロードする。

先頭に「control」とついているものは無圧縮版(700MBくらいのやつ)
「t2iadapter」とついているものは圧縮版(150MBくらいのやつ)

ダウンロードしたファイルを

WEB-UIを導入したフォルダ

stable-diffusion-webui

extensions

sd-webui-controlnet

models

このmodelsフォルダに入れる

2.controlnetの操作
controlnetのメニューをクリックで開く

a.enableにチェックを入れる。

b.Preprocessorで使用したい機能を選ぶ
「canny」または「openpose」

c.modelsでPreprocessorで選択した機能に対応したmodelを選ぶ。

cannyなら
「control_canny-fp16」
または
「t2iadapter_canny-fp16」
を選ぶ

openposeなら
「control_openpose-fp16」
または
「t2iadapter_openpose-fp16」
を選ぶ

d.とらせたいポーズの画像を「ここに画像をドロップ」の枠にポイッとする。

e.プロンプトを入れたのちにジェネレートでイラスト生成。

81WS:2023/04/13(木) 20:55:41
画像生成AI「Stable Diffusion」の18禁セーフティフィルターを解除する方法
https://gigazine.net/news/20220903-stable-diffusion-safety-filter/

82WS:2023/04/13(木) 20:56:24
画像生成AI「Midjourney」、「異常な需要と悪用」を理由に無料トライアル停止
https://news.livedoor.com/article/detail/23971196/
フェイク画像を高画質で生成できてしまい、フェイクなのかどうか見分けがつきにくいという問題もあります。
直近では「ドナルド・トランプ氏が逮捕されて裁判にかけられた」というフェイク画像を大量に生成したユーザーが利用禁止処分を受けました




83WS:2023/04/13(木) 21:08:29
AI画像・AIイラストを投稿できるサイトまとめ
https://blogcake.net/ai-post-site/

AIピクターズ

84WS:2023/04/13(木) 21:10:49
ポーズを指定して画像を生成できる「ControlNet」の使い方【Stable Diffusion web UI】
https://kurokumasoft.com/2023/02/16/stable-diffusion-controlnet/

ControlNetの使い方

手順1:必要な設定を行う
・Enableにチェックを入れる
・Preprocessorを選択する(ここでは例としてcannyを選択)
・Preprocessorに対応したモデルを選択する

手順2:入力画像を指定する
「ここに画像をドロップ」と書かれた部分に任意の画像をドラッグ&ドロップする

手順3:呪文を入力して生成ボタンを押す
super fine illustration, an extremely cute and beautiful school girl, highly detailed beautiful face and eyes

85WS:2023/04/13(木) 21:23:27
ControlNetの使い方 生成の制御 導入と構図指定
https://poseroboegaki.com/ai-illust/controlnet-no-tsukaikata/

イメージ画像を用意
・ControlNetの欄に画像をドラッグ&ドロップ
画像上のタグ
 Control Model -0
 Control Model -1
にそれぞれ別の画像を入れて指定する事もできる
(ContronetのExtensionを最新版にする必要あり)

・処理と対応するモデルを指定
 Enable にチェック
 Preprocessorをdepthに
 Modelをcontrol_dwpth-fp16 に

・渡す画像のサイズを指定
 生成画像サイズを指定 
  Canvas Width 960
  Canvas Height 540とか

設定は、(画面一番上)Settings→ControlNetをクリックして、「Multi ControlNet:Max models amount」を2以上にする。

「Apply settings」(設定を保存)をクリックして、Automatic1111を再起動する(Reload UIではダメ)

86WS:2023/04/13(木) 21:26:10
【Stable Diffusion】出力イラストのポーズを指定できるControlNetの使い方!
WebUIに拡張機能(Extension)を導入しよう!
https://yuuyuublog.org/controlnet/

ControlNetの使い方。ポーズから画像を生成しよう!(Stable Diffusion WebUI)
https://original-game.com/how-to-use-controlnet-with-stable-diffusion-webui/

「ControlNet」の導入とその使い方【Stable Diffusion web UI】
https://koneko3.com/how-to-use-controlnet/

【初心者向け】ControlNetでキャラクターのポーズを真似する方法。
blogcake.net/controlnet/

ControlNet導入&使い方解説 3D人形・実写画像等から姿勢を入力し画像生成 webUI(1111)用
economylife.net/controlnet-install-webui1111/

87WS:2023/04/16(日) 10:04:24
【Novel AI】
漫画の作画に応用できないか検討してみた
https://www.youtube.com/watch?v=Kt7sgP8vWrk
ラフ→線画
人物 キャラデザは可能
背景 かなり綺麗な線が出てくる

88WS:2023/04/16(日) 10:05:24
【保存版】AIイラストサービスNovelAIの「呪文」の使い方を徹底解説!
https://www.youtube.com/watch?v=gxU46RneQso

89WS:2023/04/16(日) 12:39:53
高品質なAIイラストを簡単に生成する方法?
https://www.youtube.com/watch?v=-O_fteFVJOs

【Googleコラボのリンク】
colab.research.google.com/dri...
【プログラムの参考サイト】
original-game.com/how-to-try-...
【Googleクローム|日本語翻訳機能付きのウェブブラウザ】
www.google.com/intl/ja_jp/chr...

90WS:2023/04/17(月) 07:16:36
絵は描けないけど img2imgとControlNet を駆使して絵を作っていく【Stable Diffusion web UI 】
https://www.youtube.com/watch?v=OhooLtFoBYE

91WS:2023/04/17(月) 07:31:40
>>90
最初はControl Netのscribbleで落書きから絵を生成する
良い絵ができたらimg to imgに持っていき生成
思った絵になってきたら、サイズをフルHD()にする
(1920×1060)

微細調整はinpaintで行う
「髪の色」のみ修正する際は、髪をマスクで塗りつぶし、プロンプトに髪の色のみ入れる

絵が描けるならskechを使用し、向きや色を指定する

92WS:2023/04/17(月) 14:25:03
なぎのブログとYoutubeマナブちゃんねる
https://www.youtube.com/@nagiblogyoutube/videos
ControlNetの情報多数

93WS:2023/04/17(月) 14:26:50
【ControlNet】
画像生成AIイラストから線画を抽出&再ペイント方法(色塗り)
♪Stable Diffusion web ui?automatic1111?
https://www.youtube.com/watch?v=ntU4duFc8MU

94WS:2023/04/17(月) 15:02:40
【Stable Diffusion】ChilloutMixの使い方
https://original-game.com/how-to-use-chilloutmix/

ChilloutMixは、CIVITAIで配布されています。(ログインが必要になります)
CIVITAI[ChilloutMix]:(https://civitai.com/models/6424/chilloutmix
(※2023/03/01追記)ChilloutMixが復活しました。権利がCivitaiに移って、再び公開されたようです。


「Stable Diffusion Web UI」で、「ChilloutMix」を使う
モデルデータ「Chilloutmix-Ni-pruned-fp32-fix.safetensors」を使う

プロンプト
head portrait, realistic, 1girl, eyes, loli, lots of frills, black long dress, starry sky, black hair blowing in the wind, trees, bloom light effect

ネガティブプロンプト
(low quality, worst quality, trembling, cropped face:1.4), cap, leg, (hand:1.6), nsfw
Steps: 20
Sampler: Euler a
CFG scale: 7.5
Seed: 1401674679
Size: 1200×632
Model: Chilloutmix-Ni-pruned-fp32-fix


【Stable Diffusion】ChilloutMixの利用方法
https://self-development.info/%E3%80%90stable-diffusion%E3%80%91chilloutmix%E3%81%AE%E5%88%A9%E7%94%A8%E6%96%B9%E6%B3%95/
ChilloutMix
現時点では二つのバージョンが存在しています。
ChilloutMix-Ni(version 2)
V2となるChilloutMix-Niは、Dreamlike Photoreal 2.0をマージしています。
Dreamlike Photoreal 2.0は、高品質の画像を生成するモデルです。

ChilloutMix-NiにはVAEが一緒に含まれています。
そのため、別途VAEを利用する必要はありません。

Stable Diffusion web UI(AUTOMATIC1111版)でChilloutMixを使う
「chilloutmix_cilloutmixNi.safetensors」を「stable-diffusion-webui/models/Stable-diffusion」ディレクトリに設置します。

95WS:2023/04/17(月) 15:10:33
ChilloutMix(チルアウトミックス)の使い方
https://kigoneta.site/chilloutmix/

1.Stable Diffusion WEB UIの起動

2.モデルの設定
  ChilloutMix」をモデルとして選択

3.プロンプト〜パラメータの設定
sample
プロンプトには「head portrait, realistic, a girl, beautiful blue eyes, cool, blond hair blowing in the wind, trees, blue sky」
ネガティブプロンプトには「worst quality」

96WS:2023/04/17(月) 15:13:33
【Stable Diffusion】
おすすめプロンプト(呪文)のコツとその調べ方!
神レベルの美少女AIコスプレイヤーを生成してもらおう!
https://yuuyuublog.org/chilloutmix_prompt/

【Positive】
masterpiece, best quality, ultra high res,(photo realistic:1.4),((1girl)), upper body, close up of face shot, big blue eyes, medium breasts, cleavage, cat ears, blonde hair, very long hair, maid costume with a lot of frills, cute, young, posing, looking at viewer, cyberpunk, night city, neckless, cross, <lora:koreanDollLikeness_v15:0.3>
「メイド服を着た超かわいい猫耳美少女の画像を、顔にフォーカスして生成してほしい」

よく使われるプロンプト
best quality:最高品質
masterpiece:傑作
ultra high res:超高解像度
highres:高解像度
4K、8K
detailed faceやdetailed clothesなど

ポジティブプロンプトを作成する上でおすすめの順番は、次の通りです。
品質上昇系(2〜3個が目安)
モデルの数(1girl, solo, 2girlsなど)
イラストの全体図(full body, upper body, close up of face shotなど)
モデルの外見に関する情報(髪型・目の色・服装など)
モデルのポーズ(posing, sitting, looking at viewerなど)
背景に関する情報
LoRAやembeddingsの比重

ネガティブプロンプト
【Negative】
painting,sketches,(worst quality:2),(low quality:2),(normal quality:2),lowers,normal quality,((monochrome)),((grayscale)),skin spots,acnes,skin blemishes,age spot, nsfw,ugly face, fat,missing fingers, extra fingers, extra arms, open chest

AIコスプレイヤーのようなフォトリアル系の美女を作りたい場合は、
【Negative】
painting,sketches,(worst quality:2),(low quality:2),(normal quality:2),lowers,normal quality,((monochrome)),((grayscale)),skin spots,acnes,skin blemishes,age spot

アニメイラスト系の美少女を生成したい場合
(worst quality, low quality:1.4), (monochrome, greyscale:1.4), bad anatomy, logo

97WS:2023/04/17(月) 15:15:15
【2023年】美少女AIコスプレイヤーをStable Diffusionで生成する方法についてまとめていく!【ChilloutMix】
https://yuuyuublog.org/ai_cosplay/

【Stable Diffusion】美少女イラスト生成におすすめのモデルデータまとめ30選+α【実写(フォトリアル)・2.5D・アニメイラスト】
https://yuuyuublog.org/sdmodels/

98WS:2023/04/17(月) 18:16:30
【AIグラビア】
日本一わかりやすいChilloutMix+StableDiffusion WebUI の基礎&導入編!AIグラビアの作り方!!
【AI絵師、Stable Diffusion】
https://www.youtube.com/watch?v=d4y6rpnt77Y
ChilloutMixは商用利用できんらしい

99WS:2023/04/17(月) 18:24:15
商用利用可能なChilloutMixのジェネリックAIモデルの紹介と作り方を解説
https://note.com/ai_angel/n/na2d32701ef1c

MUSE_v1
https://civitai.com/models/13564/musev1

【AIグラビア】商用利用可能なChilloutMix『chilled_re-generic』を使ったAIイラスト生成の完全解説!【AI絵師、Stable Diffusion】
https://www.youtube.com/watch?v=lRfeDyNRpgk
chilled_re-generic

MUSE_v1
civitai.com/models/13564/musev1

basil_mix
huggingface.co/nuigurumi/basil_mix/tree/main

ChilloutMix
civitai.com/models/6424/chilloutmix

LOFI
civitai.com/models/9052/lofi

Colorful
civitai.com/models/7279/colorful

100WS:2023/04/18(火) 07:49:01
【エロ】AIで動画を作る方法【Stable Diffusion/Control net】
https://www.youtube.com/watch?v=mNcNvIksVLs

【エロ】AIを使って女の子を裸にする最強術を教えます
【Stable diffusion / Control net /canny】
https://www.youtube.com/watch?v=XExuijofifI

無料AI絵でエロいイラストの質を爆速であげる裏ワザが衝撃すぎた
【StableDiffusion/textual inversion/Easy Negative/Bad hand】
https://www.youtube.com/watch?v=5EF6AqxvrtE

101WS:2023/04/18(火) 09:02:59
イラストの質を爆速であげる裏ワザ
https://www.youtube.com/watch?v=5EF6AqxvrtE

EasyNegative
civitai.com/models/7808?modelVersionId=9536

BadHands
civitai.com/models/16993/badhandv4-animeillustdiffusion


BadArtist
civitai.com/models/5224/bad-artist-negative-embedding


verybadimagenegative:ht
civitai.com/models/11772/verybadimagenegative

102WS:2023/04/18(火) 09:07:17
>>101
各ファイルをDLし、webuiのembeddingsに入れる

103WS:2023/04/18(火) 09:24:42
>>101
DL後、Negative promptに「EasyNegative」と入れる

104WS:2023/04/21(金) 21:14:52
【ControlNet v1.1 nightly導入方法】
https://www.ultra-noob.com/blog/2023/14/

CotrolNet1.1をautomatic1111氏のweb UIに対応させたもの
sd-webui-controlnet
https://github.com/Mikubill/sd-webui-controlnet

インストール
Web-UIのExtensionで導入する。
リポジトリのURLを貼り付けるだけでインストールできる。
URL: https://github.com/Mikubill/sd-webui-controlnet.git

輪郭やポーズを推定するモデルが必要
ControlNetはインストールしただけでは動作しない。
輪郭やポーズを抽出するモデルを別途入れる必要がある。
次のサイトに抽出する手法別にデータが分かれているので欲しい物をDLする。
v1.1対応版:lllyasviel/ControlNet-v1-1 at main

pthファイルとyamlファイルを保存する必要あり?
v1.0までのモデルは次のサイトからDLする。1.1以降でも古いモデルを使用可能。
lllyasviel/ControlNet at main


マップ抽出用モデル一覧
上で説明した推定するモデルについて、それぞれがどういうものかを一覧にしておく。

canny
ファイル名(v1.1):control_v11p_sd15_canny.pth
cannyはイラストから輪郭を抽出して、それを線画として絵を書いていくモデル。
冒頭のサンプルで利用しているのがこれ。
線画に色を付けたい、元のイラストイメージをほとんど壊さず別の絵にしたい場合など。

Soft Edge (旧:hed)
ファイル名(v1.1):control_v11p_sd15_softedge.pth
上のcannyに似ている。
グレースケール全範囲を利用することによって線の強弱まで取っている?
CGをリペイントする場合かなり強力。私が最も利用しているアルゴリズム。
Cannyよりエッジがソフトになるかどうかはまだ実験中。以前はCannyが不安定のためこちらのほうが有用だった。

openpose
ファイル名:control_v11p_sd15_openpose.pth
openposeはAIによるモーションキャプチャなどで使われているもの。
人物の四肢の位置や表情を推定しCGのボーンのような棒人間のデータを出力する。
つまり、これまで完全ランダムだったキャラクターが任意のポーズで生成できるようになった。
おそらく最も使われている重要な機能。
複数の種類がある
openposeにはたくさんの種類があるので簡単にまとめる。
openpose:四肢のみ(顔や指は推定はしない)
opsenpose_face:表情と四肢
openpose_faceonly:表情のみ
openpose_full:表情+四肢+手指
openpose_hand:四肢と手指

Depth
ファイル名(v1.1):control_v11f1p_sd15_depth.pth
画像の「奥行き」を推定するモデル。
これは3DCGで利用されるDepth Mapと概念的には同じ画像が利用されていると思われる(黒いほうが奥、白が手前)
奥行きに意味のある画像を生成する場合に使用する他「洋服のシワなどの細かい線は無視するがシルエットは残したい」といった場合にも有用そうだ。

105WS:2023/04/21(金) 21:15:36
>>104
mlsd
ファイル名(v1.1):control_v11p_sd15_mlsd.pth
こちらは建物や家具といった「直線」を抽出するモデル。
従ってキャラクターには全く無意味となるので注意。
3DCG的には「ハードサーフェス」に適用するとよさそうだ。

Normal
ファイル名(v1.1):control_v11p_sd15_normalbae.pth
ノーマルマップ(法線マップ)を生成し、それを元にするモード。
ノーマルマップは3DCGで使われる概念なので、簡易的に解説すると面の方向が入っている画像データ
CGでは凹凸がないところ(ローポリな箇所)でライティングや影をコントロールするような使い方をするので恐らくこちらも同じだろう。
normal_baeを使うことを推奨

scribble
ファイル名:control_sd15_scribble.pth
手書きで白黒画像を作り、それをベースに画像を作るモード。
デジタルで書いたラフ画(白黒画像でなくてもよい)を使う場合は最適そうだ。
アナログで書いたラフをスキャンして入れると、線が薄いためうまく拾えない模様。

fake_scribble
こちらは手書きではない「画像」を一旦手書き風に変換して使う用途。
元画像から線だけ抽出して再描画させるイメージだと思う。
hedやcannyと思うと線が太いものになるのでより曖昧な絵になるのではないだろうか。

segmentation
ファイル名(v1.1):control_v11p_sd15_seg.pth
画像を色でわけると、色分けされた箇所で別々のものが描画できる。
適当に使ってみて良い方でいいのではないだろうか。


推定用モデル(pth等)の保存先
上のモデル(pth)をDLしたらextensionのmodelフォルダに保存する。
合わせて同名のyamlファイルもDLして保存しておく。
ここはStable Diffusion本体のmodelフォルダではないので注意。
従って次のようになるかと思う。
stable-diffusion-webui/extensions/sd-webui-controlnet/models/   pth
また、これ以外にも推定用のモデルがあれば使える模様。


ControlNetパネルの使い方
左下にツールが折りたたまれているのでそこからControlNetをオンにする。

106WS:2023/04/21(金) 21:18:17
>>104
輪郭やポーズを抽出するモデル
ControlNet-v1-1
https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main

107WS:2023/04/22(土) 11:21:56
画像生成AIのStable DiffusionやMidjourneyで生成可能な画像とプロンプトを写真やイラストから検索できる「unprompt.ai」
https://gigazine.net/news/20230403-unprompt-ai/

Search 35+ Million AI Art Prompts
https://unprompt.ai/

108WS:2023/04/22(土) 19:06:48
AIイラストを可愛くする裏技教えます(Stable Diffusion)
https://www.youtube.com/watch?v=cQoReeMkvks&amp;t=69s

109WS:2023/04/22(土) 20:04:55
画像生成AI「Stable Diffusion」の上位モデル「XL」登場、より短い呪文で描写的なイメージを生成
https://ascii.jp/elem/000/004/133/4133086/

構図とポーズに関するプロンプト【Stable Diffusion web UI】
https://koneko3.com/composition-and-pose-prompt/

背景に関するプロンプト【Stable Diffusion web UI】
https://koneko3.com/stable-diffusion-background-prompt/


新着レスの表示


名前: E-mail(省略可)

※書き込む際の注意事項はこちら

※画像アップローダーはこちら

(画像を表示できるのは「画像リンクのサムネイル表示」がオンの掲示板に限ります)

掲示板管理者へ連絡 無料レンタル掲示板