ControlNetv1.1の全プリプロセッサとモデルと設定とオススメ機能を徹底解説!

今回は『ControlNet1.1』のプリプロセッサ、モデル、各種設定、オススメの『ControlNet』についてご紹介します!『ControlNet』はとても便利なのですが、設定箇所やモデルなどが多くてわかりづらくないでしょうか?わたしは慣れるまで色々数値変えてはおかしなイラストを生成してとても苦戦しました(笑)

どうも、趣味レーターのAKITΩ(あきと)です!

今回は『ControlNet1.1』のプリプロセッサ、モデル、各種設定、オススメの『ControlNet』についてご紹介します!

『ControlNet』はとても便利なのですが、設定箇所やモデルなどが多くてわかりづらくないでしょうか?

わたしは慣れるまで色々数値変えてはおかしなイラストを生成してとても苦戦しました(笑)

同じようにお困りの人のために今回の記事を作成しました!

少しでもお役にたてれば嬉しいです!!!

この記事では機能やモデルなどの解説がメインなので、もし『ControlNet』を未導入の人はこちらをご覧ください。

また、『ControlNet-v1.1.190』バージョンでご紹介しているので『ControlNet』の更新などしたい場合は下の記事の拡張機能の更新をお願いします。

それでは詳しい内容をご紹介します!

機能の更新があり『ControlNet』バージョンが1.1.192以降ならプリプロセッサとモデルを自動選択できるような機能が追加されました!

目次

ControlNet基本設定

ControlNetの基本設定関連の内容をご紹介します!

ControlNet基本設定の画像

Single Image

『ControlNet』で利用する参照画像をアップロードするところです。

元画像の著作権にはご注意ください

Enable(有効)

『ControlNet』のオンオフを切り替えできます。

チェックがついているとオンになります。

Low VRAM(低VRAM)

VRAMが8GB未満の場合にチェックを入れます。

8GB以上でもVRAM不足のエラー時にチェックを入れると解消されることがあります。

Pixel Perfect(ピクセルパーフェクト)

一部のプリプロセッサでは解像度の調整が必要ですが、その調整を自動でしてくれます。

基本的にはチェック推奨ですが、『Shuffle』の場合は解像度で変化量の調整ができるのでチェックしないほうがいいです。

Allow Preview(プレビューを許可する)

『ControlNet』を適用したときに画像を生成せずに『ControlNet』のプレビューだけを確認できます。

画像生成しないのですぐ終わるため、『ControlNet』がどう処理されるかだけ確認したいときに便利です。

操作方法を知りたい場合は以下のタブを開いてください!

Allow Previewの操作方法

『Allow Preview』にチェックをつけるとプレビュー用の枠がでます。

Allow Previewの操作方法

爆弾のようなマークを押します。

Allow Previewの操作方法

画像生成せずに『ControlNet』のプレビューだけ確認することができました。

Allow Previewの操作方法

以上が『Allow Preview』の操作方法です!

Control weight

Control weightの画像

『ControlNet』とプロンプトの影響度を調整できる機能になります。

基本的には中間の1にしておいて、できた画像のイメージを変えたい時に切り替えるのがオススメです。

似たような機能に『Control Mode』もあります。

starting Control step

いつから『ControlNet』を反映するかを調整が可能です。

例えば、0.3なら画像生成工程の30%から『ControlNet』の影響がはじまります。

Ending Control Step

いつまで『ControlNet』を反映するかを調整が可能です。

例えば、0.8なら画像生成工程の80%から『ControlNet』の影響が終わります。

〜Control stepの補足〜

基本的には『starting Control step』を0で『Ending Control Step』を1にしておけば大丈夫です。

ただし、『ControlNet』の要素が強すぎて生成画像がおかしいときには調整することで改善できます。

変更例を知りたい場合は以下のタブを開いてください!

Control Step変更例

構図はいいけど『ControlNet』の影響が強すぎる場合に変更するのがオススメです。

例として『ボディースーツ、ロングヘアー、赤いインナーカラー』の呪文で画像を生成しました。

Control Step変更例の画像

こちらの画像を『ControlNet』へアップロードして、『depth』で別画像を生成します。

使用呪文は『メイド服、ボブヘアー、青いインナーカラー』になります。

starting0・Ending1

Control Step変更例の画像

元画像の深度マップに忠実なため、呪文のボブヘアーではなくロングヘアーで服もボディースーツの体型に合わせた画像になっています。

これは画像生成の最後の工程まで『ControlNet』が影響しているためです。

『starting0・Ending0.25』へ変えて『ControlNet』の影響を25%で終わるように変更します。

starting0・Ending0.25

Control Step変更例の画像

『depth』とプロンプトがバランスよく表現されていませんでしょうか?

大まかな構図はいいけどプロンプトの反映がイマイチなときには、是非調整してみてください!

作りたいイラストやseed固定の有無で変わりますが、個人的には『Ending0.25〜4』くらいを目安に調整するとバランスよくなることが多いです。

Control weight』や『Control Mode』なども組み合わせると効果的です。

Preprocessor Resolutino

Preprocessor Resolutinoの画像

プリプロセッサによって表示される項目で、プリプロセッサの解像度を手動で調整できます。

解像度を間違えると変なイラストになるので『Pixel Perfect』で自動調整するのがオススメです。

Control Mode

Control Modeの画像

『Control Mode』には3種類あり、プロンプトと元画像の影響度を調整できます。

基本的にはデフォルトの『Balanced』にしておいて、できた画像のイメージを変えたい時に切り替えるのがオススメです。

~Balanced~

プロンプトと元画像をバランスよく画像を生成する。

~My prompt is more imprortant~

プロンプトを優先して画像を生成する。

~ControlNet is more imprortant~

元画像の要素を優先して画像を生成する。

Resize Mode

Resize Modeの画像

参照画像のサイズが生成される画像のサイズと異なる場合に調整する機能になります。

同じ縦横比であれば気にしなくて大丈夫です。

~Just Resize~

参照画像の縦横比を維持せずに生成サイズに合うようにサイズ変更する。

~Crop and Resize~

生成画像サイズに合うように参照画像の一部を切り抜きとサイズ変更する。

~Resize and Fill~

生成画像サイズに合うように参照画像をサイズ変更して余白を塗りつぶす。

Multi ControlNetの設定

ControlNetはMulti ControlNetという設定で複数同時に使用することが可能です。

設定方法をご紹介しますが、同時に使用しない場合は設定不要になります。

①『Settings』タブ→②ControlNet→③Multi ControlNet: Max models amount (requires restart)の下のバーを動かすと右端の数字が変わります。

その数字が同時に使用できるControlNetの数になります。

数字を変更したら①『Apply settings』→②『Reload UI』で再起動します。

設定が反映されると『ControlNet Unit 0』、『ControlNet Unit 1』のように切り替えできるタブがでて、それぞれのタブで別々のControlNetを利用できます!

Preprocessor(プリプロセッサ)とModel(モデル)

Preprocessor(プリプロセッサ)とModel(モデル)の画像

Preprocessor(プリプロセッサ)

『Preprocessor』は『ControlNet』のモデルが読み込める下処理画像の種類を変えれるところです。

こういうやつ!

すでに下処理画像を用意できていたりモデルによっては不要な場合があるので、その際は『None/なし』を選べば『Preprocessor』なしで生成ができます。

invert』の項目で『Preprocessor』なしの生成例をご紹介しています。

Model(モデル)

『Model』は選ばれた種類に対応した『ControlNet』の処理をするところです。

所定のフォルダに『Model』用のファイルがないとでてこないため、ダウンロード方法などはこちらを参考にしてみてください!

1.1.192以降のバージョンでプリプロセッサとモデルを選ぶ画面はこちらを確認ください。

各プリプロセッサや推奨モデルをご紹介します!

あなたの必要な内容だけ見やすくするために、詳細な内容などはタブで開閉できるようにしています。

invert(from white bg & black line)

関連モデル:canny、lineart、Lineart

基本的には自分で絵が描ける人向けの機能ですが、線画やラクガキなどの白黒を反転して『ControlNet』で読み込めるようにする機能です。

invertの詳細な内容はこちら!

一般的な線画は黒い線で白い背景ですが『ControlNet』では白い線と黒い背景を認識するので、その白黒を反転するのが『invert』機能です。

参考画像

invertの線画

参考画像に『invert』を使用します。『Allow Preview』にチェックをつけるとプレビュー用の枠がでます。

Allow Previewの操作方法

『Preprocessor』で『invert(from white bg & black line)』選んで爆弾のようなマークを押します。『Model』は選択しないで大丈夫です。

invertの使い方の画像

白黒反転したイラストが生成されました。

invertの使い方の画像

この画像を『ControlNet』で使用したい場合は『invert』で生成した画像を『ControlNet』画像としてアップロード。

『Preprocessor』を『None』で線画をイラストに変更するモデル『canny』や『lineart』にします。

invertの使い方の画像

その状態でイラストを生成すると線画を使用したイラストが生成されます。

線画を利用した画像

invertを利用した画像

以上が『invert』についてです!

canny

推奨モデル:canny

参照画像の輪郭の情報を線画のように抽出し、その情報を元に画像を生成する機能です。

使用例

ControlNetの元画像
参照画像
cannyの下処理画像
下処理画像
cannyの生成画像
生成画像

ご自身で線画を用意できるなら『invert』を利用して『ControlNet』で利用できます。

似たような『ControlNet』で『Lineart』と『softedge』もあるので、違いは別の項目にまとめました!

depth

推奨モデル:depth

『Depth』は参照画像の深度(奥行のようなもの)を抽出して、その情報を元に画像を生成する機能です。

使用例

ControlNetの元画像
参照画像
depthの画像
下処理画像
depthの画像
生成画像
詳細な内容はこのタブから!

プリプロセッサの使用例

~depth leres~

ControlNetの元画像
depth leresの下処理画像
depth leresの生成画像

~depth leres++~

ControlNetの元画像
depth leres++の下処理画像
depth leres++の生成画像

~depth midas~

ControlNetの元画像
depth midasの下処理画像
depth midasの生成画像

~depth zoe~

ControlNetの元画像
depth zoeの下処理画像
depth zoeの生成画像

『Depth』のプリプロセッサは4種類ありますが、それぞれ深度の抽出度が違います。

〜抽出度〜
『leres++』>『leres』>『zoe』>『midas』

『leres++』が一番精度が高いので、基本的には『leres++』を使用すれば大丈夫です。

ただし、『leres』以上だと背景の深度も抽出しやすいので、特定の対象だけを抽出したいときは『zoe』以下にするのがオススメになります。

生成画像が深度マップの影響を受けやすいので、変なイラストになる時は『Control stepの補足』の方法を利用してみてください!

inpaint

推奨モデル:inpaint

参照画像の黒くマスクされた部分を描き直す機能です。

イラストの一部を修正したいときにオススメな機能になります。

使用例

~inpaint global harmonious~

ControlNetの元画像
参照画像
inpaintの下処理画像
下処理画像
inpaintの生成画像
生成画像

~inpaint_only~

ControlNetの元画像
参照画像
inpaint_onlyの下処理画像
下処理画像
inpaint_onlyの生成画像
生成画像

『inpaint global harmonious』はマスク範囲外も修正内容に合わせて多少変化がでます。

『inpaint_only』はマスク範囲内だけ変化する違いがあります。

操作方法など詳細な内容はこのタブから!

inpaintは、黒く塗りつぶした部分を違和感なく描き直してくれます。

今回の生成画像の呪文には『笑顔』、『長い髪』、『金髪』を入れて生成しています。

ControlNetの元画像
inpaintの生成画像

長い髪で笑顔な女性のイラストになり、元が茶髪なので『金髪』はあまり反映されていません。

このようなイラストの一部だけを違和感無く直したいときに便利な機能です。

下処理画像の作り方

お使いのペイントツールで参照画像を用意してもいいのですが、webuiの画面でも簡単に作ることが可能です。

画像の右側にあるペンのマークを押すと黒いペンがでてきて、押すと出てくるバーでペンの太さが変更可能になります。

下処理画像の作り方

あとは塗りつぶしたいところをクリックしながらなぞれば黒く塗れます。

プリプロセッサに『inpaint only+lama』が増えたので、別記事で違いや使用例など書きました。

Lineart anime

推奨モデル:lineart anime

参照画像の輪郭の情報を線画のように抽出し、その情報を元に画像を生成する機能です。

使用例

~Lineart anime~

ControlNetの元画像
参照画像
Lineart animeの下処理画像
下処理画像
Lineart animeの生成画像
生成画像

~lineart_anime_denoise~

ControlNetの元画像
参照画像
lineart_anime_denoiseの下処理画像
下処理画像
lineart_anime_denoiseの生成画像
生成画像

『Lineart』と『Lineart anime』で2種類あります。

『Lineart anime』はイラストを中心に学習したモデルなので、『ControlNet』用画像がイラストなら『Lineart anime』で違うなら『Lineart』と使い分けするといいと思います。

ご自身で線画を用意できるなら『invert』を利用して『ControlNet』で利用できます。

似たような『ControlNet』で『canny』と『softedge』もあるので、違いは別の項目にまとめました!

Lineart

推奨モデル:lineart

参照画像の輪郭の情報を線画のように抽出し、その情報を元に画像を生成する機能です。

使用例

ControlNetの元画像
参照画像
Lineartの下処理画像
下処理画像
Lineartの生成画像
生成画像

『Lineart』と『Lineart anime』で2種類あります。

『Lineart anime』はイラストを中心に学習したモデルなので、『ControlNet』用画像がイラストなら『Lineart anime』で違うなら『Lineart』と使い分けするといいと思います。

ご自身で線画を用意できるなら『invert』を利用して『ControlNet』で利用できます。

似たような『ControlNet』で『canny』と『softedge』もあるので、違いは別の項目にまとめました!

詳細な内容はこのタブから!

~Lineart coarse~

ControlNetの元画像
Lineart coarseの下処理画像
Lineart coarseの生成画像

~Lineart realistic~

ControlNetの元画像
Lineart realisticの下処理画像
Lineart realisticの生成画像

~Lineart standard~

ControlNetの元画像
Lineart standardの下処理画像
Lineart standardの生成画像

『Lineart』には3種類のプリプロセッサがありますが、線の抽出の仕方が違います。

『coarse』は手書きのような線画、『realistic』は元の画像に忠実な線画、『standard』は立体感を線の太さで表現しているような線画です。

個人的な印象ですが、キャラだけを『ControlNet』で利用するなら『realistic』で、背景も含めて利用したいなら『standard』がいいと思います。

mediapipe_face

推奨モデル:mediapipe

参照画像の表情を抽出して、その情報を元に画像を生成する機能です。

使用例

ControlNetの元画像
参照画像
mediapipe_faceの下処理画像
下処理画像
mediapipe_faceの生成画像
生成画像

mlsd

推奨モデル:mlsd

参照画像の直線部分の情報を抽出して、その情報を元に画像を生成する機能です。

使用例

ControlNetの元画像
参照画像
mlsdの下処理画像
下処理画像
mlsdの生成画像
生成画像

normal

推奨モデル:normal

参照画像の法線マップ(凹凸や溝のような立体感)の情報を抽出して、その情報を元に画像を生成する機能です。

使用例

ControlNetの元画像
参照画像
normalの下処理画像
下処理画像
normalの生成画像
生成画像
詳細な内容はこのタブから!

~normal_bae~

ControlNetの元画像
normal_baeの下処理画像
normal_baeの生成画像

~normal_midas~

ControlNetの元画像
normal_midasの下処理画像
normal_midasの生成画像

プリプロセッサが2種類ありますが『midas』のほうは精度が悪い印象なので、アップデートされなければ『bae』を使用するのがオススメです。

openpose

推奨モデル:openpose

参照画像のポーズを棒人間のような情報へ変換して、その情報を元に画像を生成する機能です。

使用例

ControlNetの元画像
参照画像
openposeの下処理画像
下処理画像
openposeの生成画像
生成画像
詳細な内容はこのタブから!

~openpose~

ControlNetの元画像
openposeの下処理画像
openposeの生成画像

~openpose_face~

ControlNetの元画像
openpose_faceの下処理画像
openpose_faceの生成画像

~openpose_faceonly~

ControlNetの元画像
openpose_faceonlyの下処理画像
openpose_faceonlyの生成画像

~openpose_full~

ControlNetの元画像
openpose_fullの下処理画像
openpose_fullの生成画像

~openpose_hand~

ControlNetの元画像
openpose_handの下処理画像
openpose_handの生成画像

『openpose』のプリプロセッサは5種類ありますが、特徴がハッキリ違います。

~openposeの違い~

  • openpose
    • ポーズのみ
  • opsenpose_face
    • ポーズ+表情
  • openpose_faceonly
    • 表情のみ
  • openpose_full
    • ポーズ+表情+手
  • openpose_hand
    • ポーズ+手

基本的には『full』で表情を指定したくないなら『hand』にすることが多いと思います。

『dw openpose full』というプリプロセッサが追加されたので、その機能についてと『openpose』自体の活用方法などを別記事にまとめました!

reference

推奨モデル:モデル選択不要

参照画像のイメージを活かして新しい画像を生成します。

キャラクターに使用すると似たようなキャラで呪文を反映するため、簡易的な『LoRa』など学習モデルに近い使い方が可能です。

使用例

ControlNetの元画像
参照画像
referenceの生成画像
生成画像

呪文に『着物』を入れていますが、元の『ボディースーツ』ではなく『着物』になりキャラクターも似た雰囲気になっています。

詳細な内容はこのタブから!

~reference_adain~

ControlNetの元画像
reference_adainの生成画像

~reference_adain+attn~

ControlNetの元画像
reference_adain+attnの生成画像

~reference-only~

ControlNetの元画像
reference-onlyの生成画像

『reference』のプリプロセッサは3種類ありますが、『only』以外はキャラクター以外の情報も取得するので他は使用しないで大丈夫です。

scribble

推奨モデル:scribble

参照画像をラクガキ風に変換して、その情報を元に画像を生成する機能です。

ご自身でラクガキみたいな絵が描けるなら『invert』を利用して『ControlNet』で利用できます。

使用例

ControlNetの元画像
参照画像
scribbleの下処理画像
下処理画像
scribbleの生成画像
生成画像
詳細な内容はこのタブから!

~scribble hed~

ControlNetの元画像
scribble hedの下処理画像
scribble hedの生成画像

~scribble pidinet~

ControlNetの元画像
scribble pidinetの下処理画像
scribble pidinetの生成画像

~scribble xdog~

ControlNetの元画像
scribble xdogの下処理画像
scribble xdogの生成画像

プリプロセッサが3種類ありますが、線の抽出度が違います。

〜抽出度〜
xdog>hed>pidinet

xdogは細い線画みたいな情報で抽出してくれますが、『ControlNet』には類似機能が多数あるのでそちらを使うほうがわかりやすいと思います。

『scribble』は、自身で参照画像をイラストにしたい場合や、『hed』以下のプリプロセッサにして元画像から少し変化したイラストを作成したいときにオススメです。

seg

推奨モデル:seg

参照画像の物体ごとの情報を抽出して、その情報を元に画像を生成する機能です。

使用例

ControlNetの元画像
参照画像
segの下処理画像
下処理画像
segの生成画像
生成画像
詳細な内容はこのタブから!

~seg_ofade20k~

ControlNetの元画像
seg_ofade20kの下処理画像
seg_ofade20kの生成画像

~seg_ofcoco~

ControlNetの元画像
seg_ofcocoの下処理画像
seg_ofcocoの生成画像

~seg_ufade20k~

ControlNetの元画像
seg_ufade20kの下処理画像
seg_ufade20kの生成画像

プリプロセッサが3種類ありますが、抽出のアルゴリズムが違うようです。

公式サイトなどで詳しい違いなどの情報がないので、上の画像から抽出度の高さを決めました。

〜抽出度〜
ofcoco>ofade20k>ufade20k

そこまで大きな違いはなさそうなので、現状は『ofcoco』を使用すればいいのかなという印象です。

shuffle

推奨モデル:shuffle

参照画像の情報に少し変化を加えて、その情報を元に画像を生成する機能です。

絵を少し変化させたい時や、テクスチャーの利用や色味を調整したい時にオススメになります。

使用例

ControlNetの元画像
参照画像
shuffleの下処理画像
下処理画像
shuffleの生成画像
生成画像
詳細な内容はこのタブから!

『shuffle』の変化度は『Preprocessor Resolution』で強弱できるので、『Pixel Perfect』はオフにするほうがいいです。

画像の変化以外にも、なにかと混ぜるような使い方をする時にも便利な印象です。

加工したい画像を用意して『img2imgタブ』で作業します。

img2img用画像

ControlNetの元画像

上の画像を『img2img』にアップロードします。

このイラストの雰囲気を変えるために別の画像を用意しました。

合成用画像

shuffle合成用画像

外なのにくすんだ色味が気になったので青くてザラザラした画像を合成します。

shuffleの使い方の画像

今回は『ControlNet』用に加工済み画像なのでプリプロセッサを『none』にしてモデルを『shuffle』にしていますが、『ControlNet』用画像に変化を入れたければプリプロセッサを『shuffle』にして生成します。

生成画像

shuffleの使い方の画像

全体的に青い色味になって細かい描きこみが増えた画像になりました。

このようにイラストに変化を加えたい時に利用できる機能が『shuffle』です。

softedge

推奨モデル:softedge

参照画像の輪郭の情報を線画のように抽出し、その情報を元に画像を生成する機能です。

使用例

ControlNetの元画像
参照画像
softedgeの下処理画像
下処理画像
softedgeの生成画像
生成画像

ご自身で線画を用意できるなら『invert』を利用して『ControlNet』で利用できます。

似たような『ControlNet』で『canny』と『Lineart』もあるので、違いは別の項目にまとめました!

詳細な内容はこのタブから!

~softedge_hed~

ControlNetの元画像
softedge_hedの下処理画像
softedge_hedの生成画像

~softedge_hedsafe~

ControlNetの元画像
softedge_hedsafeの下処理画像
softedge_hedsafeの生成画像

~softedge_pidinet~

ControlNetの元画像
softedge_pidinetの下処理画像
softedge_pidinetの生成画像

~softedge_pidisafe~

ControlNetの元画像
softedge_pidisafeの下処理画像
softedge_pidisafeの生成画像

『softedge』は4種類ありますが、個人的には『hed』が一番自然な線で細かい部分の抽出してくれるので使いやすいと思います。

t2ia

推奨モデル:t2iadapter_grid、t2iadapter_pidi、t2iadapter_style

『ControlNet』用画像を選んだプリプロセッサの加工をしてその情報を元に画像を生成する機能です。

SEEDを固定したり『img2img』で利用すると使いやすいかと思います。

使用例

SEED固定の元画像
SEED固定の元画像
ControlNetの元画像
ControlNet用画像

t2i1_color_grid

t2iaの下処理画像
下処理画像
t2i1_color_gridの生成画像
生成画像

t2ia_sketch_pidi

t2iaの下処理画像
下処理画像
t2ia_sketch_pidiの生成画像
生成画像

t2ia_style_clipvision

t2iaの下処理画像
下処理画像
t2ia_style_clipvisionの生成画像
生成画像

個人的に使いづらい機能ですが『sketch』は『ControlNet』の背景をいかしたようなイラストになるので利用することがあります。

モデルはこちらからダウンロードできます

threshold

推奨モデル:none以外のモデル

参照画像モノクロに変えて、その情報を元に画像を生成する機能です。

『none』以外の選んだモデルによって生成画像が変化します。

使用例

ControlNetの元画像
参照画像
thresholdの下処理画像
下処理画像
threshold生成画像
生成画像

tile

推奨モデル:tile

参照画像をプロンプトに合わせて変えたり、SEED固定や『img2img』利用して参照画像の印象のまま細部の描きこみを増やしたりキレイにアップスケールできる機能です。

使用例

tileの参照画像
参照画像
tileの生成画像
生成画像

呪文に『金髪』と『青い目』を入れており、参照画像と呪文を合わせたようなイラストで細部の描きこみも増えています。

このように参照画像の印象を残したまま拡大や変化できるので非常に使いやすい機能です。

詳細な内容はこのタブから!

~tile_resample~

ControlNet参照画像
tile_resampleの生成画像

~tile_colorfix~

ControlNet参照画像
tile_colorfixの生成画像

~tile_colorfix+sharp~

ControlNet参照画像
tile_colorfix+sharpの生成画像

『tile』は3種類ありますが、イラストの描きこみ度が変わっている印象です。

個人的には以下の順で変化度が違うので、どれくらいイラストの印象を変えたいかで変えるといいと思います。

〜描きこみ度〜
colorfix+sharp>colorfix>resample

『tile_colorfix+sharp』はアップスケール時に『tile』のぼやける症状を抑えるためのプリプロセッサということなので、アップスケール時は『tile_colorfix+sharp』を利用するほうがよさそうです。

ip2p

推奨モデル:ip2p

○○を○○にして』という呪文を反映させやすくする機能です。

プリプロセッサは『none』の状態でモデルだけ選択して使用します。

使用例

ControlNet参照画像
参照画像
ip2p生成画像
生成画像

『SEED』固定したものや『img2img』で利用しやすいかと思います。

使用例では『img2img』を使用して、呪文に『髪を金髪にして、目を青い色にして』という呪文を入れて生成しています。

canny・softedge・Lineartの違い

どれも輪郭を線にするような機能で違いがわかりづらいので、画像の比較や簡単な特徴をまとめました。

〜元画像〜

canny・softedge・Lineart比較用の元画像

~下処理画像~

canny・softedge・Lineart比較用の下処理画像
canny
canny・softedge・Lineart比較用の下処理画像
softedge
canny・softedge・Lineart比較用の下処理画像
Lineart

~生成画像~

canny・softedge・Lineart比較用の生成画像
canny・softedge・Lineart比較用の生成画像
canny・softedge・Lineart比較用の生成画像

~それぞれの特徴~

  • canny:
    • 線の数が多くより詳細になるが、線が集まっている部分は元の画像より変化しやすい。
  • softedge:
    • 抽出する線が太いため細かい隙間などは苦手だが、比較的に元のイラストに近い絵になりやすい。
  • Lineart:
    • 元の線がハッキリしていると細くて忠実な線を取得するが、背景などの細い線やぼやけた線は抽出されづらい。

それぞれ上記の特徴がありますが、使い分けが面倒なら『softedge』が一番使いやすいと思います。

『softedge』が合わない時は、参照画像の線がハッキリしていないなら『canny』で、ハッキリしているなら『Lineart』みたい変えるのがオススメです!

状況別のオススメControlNet

『ControlNet』の種類が多くて悩む人も多いと思うので、状況別の個人的にオススメなプリプロセッサをご紹介します!

■イラストに使いやすい機能
Depth
openpose
softedge

■ある程度絵が描ける人向け機能
Lineart
scribble

■背景をメインに使いたい時の機能
mlsd
seg

■使いこなすと便利な機能
inpaint global harmonious
reference
shuffle
tile_resample

以上が『ControlNet』についてでした!

人気記事一覧

おわりに

『ControlNet』についてご紹介しましたが、いかがでしたでしょうか?

個人的に調べてると同じ記事で全モデルを紹介している記事がなくて、色々な記事を調べるのが大変だなと思って今回の記事を作りました。

作ってみたら種類が多すぎて逆にわかりづらい感じもするし、作るのメチャクチャ時間かかって大変だったので超後悔(笑)

見やすいと思ってくれる人がいたら嬉しいなと思いながら記事を投稿します!!!

本記事は以上になります。

長文を読んでお疲れだと思いますが、最後まで読んでいただきありがとうございます!

また次の記事でお会いしましょう!!!

明日は何を書こうかな?

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

コメント

コメントする

目次