<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>StableDiffusion | DL FreeTime</title>
	<atom:link href="https://www.ct-innovation.blog/dl-freetime/tag/stablediffusion/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.ct-innovation.blog/dl-freetime</link>
	<description>Start studying deep learning in my Free time</description>
	<lastBuildDate>Tue, 04 Jun 2024 12:34:38 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/02/cropped-cooltext289278806579247-32x32.png</url>
	<title>StableDiffusion | DL FreeTime</title>
	<link>https://www.ct-innovation.blog/dl-freetime</link>
	<width>32</width>
	<height>32</height>
</image> 
<atom:link rel="hub" href="https://pubsubhubbub.appspot.com"/><atom:link rel="hub" href="https://pubsubhubbub.superfeedr.com"/><atom:link rel="hub" href="https://websubhub.com/hub"/>	<item>
		<title>StableDiffusion×ChatGPT＝「DiffusionGPT」の解説と起動方法</title>
		<link>https://www.ct-innovation.blog/dl-freetime/programming/python/2853/</link>
					<comments>https://www.ct-innovation.blog/dl-freetime/programming/python/2853/#respond</comments>
		
		<dc:creator><![CDATA[Yuki]]></dc:creator>
		<pubDate>Thu, 06 Jun 2024 09:14:56 +0000</pubDate>
				<category><![CDATA[AI/MachineLearning]]></category>
		<category><![CDATA[Python]]></category>
		<category><![CDATA[プログラミング]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[StableDiffusion]]></category>
		<guid isPermaLink="false">https://www.ct-innovation.blog/dl-freetime/?p=2853</guid>

					<description><![CDATA[今回は画像生成分野における革新的な取り組み「DiffusionGPT」について、詳しく解説していきたいと思います。 DiffusionGPTは、大規模言語モデル（LLM）を活用することで、優れた生成モデルをシームレスに統 [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>今回は画像生成分野における革新的な取り組み「DiffusionGPT」について、詳しく解説していきたいと思います。</p>



<p>DiffusionGPTは、大規模言語モデル（LLM）を活用することで、優れた生成モデルをシームレスに統合し、多様なプロンプトを効率的に解析できる画期的なフレームワークです。従来の画像生成手法の課題を解決し、幅広い分野で卓越した性能を発揮します。</p>



<p>本記事では、DiffusionGPTの仕組みや特徴を丁寧に解説するとともに、実際のPythonコードを交えながら、その実装方法についても触れていきます。AI分野に関心のある方はもちろん、プログラミングに興味のある方にもおすすめの内容となっています。</p>



<p>それでは、早速DiffusionGPTの世界に飛び込んでみましょう！</p>



<h2 class="wp-block-heading">DiffusionGPTとは</h2>



<p>DiffusionGPTは、LLMを活用した革新的な画像生成フレームワークです。優れた生成モデルを統合し、多様なプロンプトを効率的に解析することで、高品質の画像生成を実現します。</p>



<p>従来の画像生成手法では、以下のような課題がありました。</p>



<ul class="wp-block-list">
<li>モデルの限界：汎用性の高いStable Diffusionモデルは特定の分野での性能が低く、特化型モデルは汎用性に欠ける</li>



<li>プロンプトの制約：学習時のテキスト情報は記述文が中心で、指示文やインスピレーション文など多様なプロンプトへの対応が難しい</li>
</ul>



<p>DiffusionGPTは、これらの課題を解決するために開発されました。LLMをコア制御として活用し、プロンプト解析からモデル選択、画像生成までのワークフローを一貫して管理します。</p>



<p>以下に、DiffusionGPTのワークフローを示します。</p>



<figure class="wp-block-image aligncenter size-full is-resized"><img fetchpriority="high" decoding="async" width="780" height="280" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-06-04-183402.png" alt="" class="wp-image-2854" style="width:800px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-06-04-183402.png 780w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-06-04-183402-300x108.png 300w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-06-04-183402-768x276.png 768w" sizes="(max-width: 780px) 100vw, 780px" /></figure>



<ol class="wp-block-list">
<li>プロンプト解析：入力されたプロンプトから、重要なテキスト情報を抽出</li>



<li>モデルツリーの構築と検索：事前知識をもとにモデルツリーを構築し、入力プロンプトに合わせて最適なモデルを検索</li>



<li>モデル選択：人間のフィードバックを取り入れながら、生成に最適なモデルを選択</li>



<li>画像生成の実行：選択されたモデルを用いて、高品質の画像を生成</li>
</ol>



<p>このワークフローにより、DiffusionGPTは幅広いプロンプトや分野に対応でき、高い汎用性と卓越した性能を実現しています。</p>



<div class="wp-block-cocoon-blocks-sticky-box blank-box block-box sticky">
<p>実際に試せるようにDemoを準備してくれてます。</p>



<div class="wp-block-cocoon-blocks-blogcard blogcard-type bct-reference-link">

<a rel="noopener" target="_blank" href="https://huggingface.co/spaces/DiffusionGPT/DiffusionGPT-XL" title="DiffusionGPT XL - a Hugging Face Space by DiffusionGPT" class="blogcard-wrap external-blogcard-wrap a-wrap cf"><div class="blogcard external-blogcard eb-left cf"><div class="blogcard-label external-blogcard-label"><span class="fa"></span></div><figure class="blogcard-thumbnail external-blogcard-thumbnail"><img decoding="async" src="https://cdn-thumbnails.huggingface.co/social-thumbnails/spaces/DiffusionGPT/DiffusionGPT-XL.png" alt="" class="blogcard-thumb-image external-blogcard-thumb-image" width="320" height="180" /></figure><div class="blogcard-content external-blogcard-content"><div class="blogcard-title external-blogcard-title">DiffusionGPT XL - a Hugging Face Space by DiffusionGPT</div><div class="blogcard-snippet external-blogcard-snippet">Discover amazing ML apps made by the community</div></div><div class="blogcard-footer external-blogcard-footer cf"><div class="blogcard-site external-blogcard-site"><div class="blogcard-favicon external-blogcard-favicon"><img decoding="async" src="https://www.google.com/s2/favicons?domain=https://huggingface.co/spaces/DiffusionGPT/DiffusionGPT-XL" alt="" class="blogcard-favicon-image external-blogcard-favicon-image" width="16" height="16" /></div><div class="blogcard-domain external-blogcard-domain">huggingface.co</div></div></div></div></a>
</div>
</div>



<h2 class="wp-block-heading">全体像</h2>



<figure class="wp-block-image aligncenter size-full is-resized"><img decoding="async" width="859" height="842" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-06-04-184145.png" alt="" class="wp-image-2855" style="width:800px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-06-04-184145.png 859w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-06-04-184145-300x294.png 300w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-06-04-184145-768x753.png 768w" sizes="(max-width: 859px) 100vw, 859px" /></figure>



<h3 class="wp-block-heading">プロンプト解析の仕組み</h3>



<p>DiffusionGPTは、まず入力されたプロンプトを解析します。プロンプト解析エージェントがLLMを活用して、プロンプトから重要なテキスト情報を抽出するのです。</p>



<p>プロンプトには以下のような種類があります。</p>



<ul class="wp-block-list">
<li>プロンプトベース：入力全体をプロンプトとして使用</li>



<li>指示ベース：指示の中核部分をプロンプトとして抽出</li>



<li>インスピレーションベース：願望対象をプロンプトとして抽出</li>



<li>仮説ベース：仮説条件と行動対象をプロンプトとして抽出</li>
</ul>



<p>プロンプト解析エージェントは、これらの形式を識別し、ノイズの影響を軽減しながら、ユーザーが生成したい核となるコンテンツを正確に認識します。</p>



<h3 class="wp-block-heading">モデルツリーによる効率的な検索</h3>



<p>プロンプト解析の次のステップは、膨大なモデルライブラリから適切な生成モデルを選択することです。しかし、モデルの数が多いため、全てのモデルをLLMに同時に入力して選択するのは現実的ではありません。</p>



<p>そこでDiffusionGPTでは、Tree-of-Thought（TOT）の概念に基づくモデルツリーを利用します。モデルツリーの検索機能を活用することで、モデルの候補を絞り込み、選択の精度を高めるのです。</p>



<p>モデルツリーは、以下の手順で自動構築されます。</p>



<ol class="wp-block-list">
<li>全モデルの属性タグをTOTモデル構築エージェントに入力</li>



<li>エージェントが主題ドメインとスタイルドメインからカテゴリを抽出</li>



<li>スタイルカテゴリを主題カテゴリのサブカテゴリとして組み込み、2層の階層ツリー構造を確立</li>



<li>全モデルを属性に基づいて適切なリーフノードに割り当て</li>
</ol>



<p>このように自動構築されるため、新しいモデルを追加する際にも、エージェントが属性に基づいてモデルツリーの適切な位置に配置します。</p>



<p>モデルツリーの検索は、TOTモデル検索エージェントが幅優先探索を用いて行います。各レベルでカテゴリとプロンプトを比較し、最も一致度の高いカテゴリを選択。この繰り返しにより、最終的なモデル候補セットを導出します。</p>



<h3 class="wp-block-heading">人間のフィードバックを取り入れたモデル選択</h3>



<p>モデル選択の段階では、前段で得られたモデル候補セットから、画像生成に最も適したモデルを特定します。ここでは、オープンソースコミュニティから得られる限られた属性情報では、詳細なモデル情報をLLMに提供しながら最適なモデルを決定するのが難しいという課題があります。</p>



<p>DiffusionGPTは、この課題に対処するために、人間のフィードバックを活用するモデル選択エージェントを導入しています。アドバンテージデータベース技術を用いて、モデル選択プロセスを人間の好みに合わせるのです。</p>



<p>具体的には、以下のような手順でモデル選択を行います。</p>



<ol class="wp-block-list">
<li>1万件のプロンプトに基づくモデル生成結果に対して報酬モデルでスコア計算し、情報をデータベースに保存</li>



<li>入力プロンプトと1万件のプロンプトの意味的類似度を計算し、上位5件のプロンプトを特定</li>



<li>オフラインデータベースから各モデルの性能情報を取得し、選択されたプロンプトごとに上位5モデルを選択</li>



<li>TOT段階で得られたモデル候補セットと、上記の5×5モデルセットの共通部分を特定</li>



<li>出現確率が高く、ランキングが上位のモデルを最終的に選択</li>
</ol>



<h3 class="wp-block-heading">プロンプト拡張による生成品質の向上</h3>



<p>最適なモデルが選択されたら、得られた核となるプロンプトを用いて、目的の画像を生成します。この際、プロンプト拡張エージェントを用いてプロンプトを自動的に拡張することで、生成品質を向上させることができます。</p>



<h2 class="wp-block-heading">DiffusionGPTの起動手順</h2>



<p>プロンプト拡張エージェントは、選択されたモデルのプロンプト例を参照しながら、入力プロンプトをより詳細で表現力豊かなものへと拡張します。これにより、生成される画像の質が大幅に改善されるのです。</p>



<p>DiffusionGPTを実際に試してみたい方のために、ここではGitHubリポジトリからソースコードを取得し、環境を設定して起動するまでの手順を説明します。</p>



<h3 class="wp-block-heading">前提条件</h3>



<ul class="wp-block-list">
<li>Pythonがインストールされていること（バージョン3.6以上）</li>



<li>GitHubアカウントを持っていること</li>
</ul>



<h3 class="wp-block-heading">手順</h3>



<ol class="wp-block-list">
<li>リポジトリのクローン<br>まず、DiffusionGPTのGitHubリポジトリをローカル環境にクローンします。ターミナルまたはコマンドプロンプトで以下のコマンドを実行してください。</li>
</ol>



<pre class="wp-block-code plaintext"><code>git clone https://github.com/DiffusionGPT/DiffusionGPT.git</code></pre>



<ol class="wp-block-list" start="2">
<li>必要なライブラリのインストール<br>リポジトリのルートディレクトリに移動し、必要なPythonライブラリをインストールします。 </li>
</ol>



<pre class="wp-block-code plaintext"><code><code>cd DiffusionGPT pip install -r requirements.txt</code></code></pre>



<ol class="wp-block-list" start="3">
<li>環境変数の設定 <br><code>.env</code>ファイルを作成し、以下の内容を記述してください。<br><code>OPENAI_API_KEY=your_openai_api_key</code>の部分を、自身で発行したOpenAI APIキーに置き換えてください。</li>
</ol>



<ol class="wp-block-list" start="4">
<li>DiffusionGPTの起動<br>以下のコマンドを実行して、DiffusionGPTを起動します。</li>
</ol>



<pre class="wp-block-code plaintext"><code><code>python main.py</code></code></pre>



<ol class="wp-block-list" start="5">
<li>プロンプトの入力<br>DiffusionGPTが起動したら、プロンプトを入力して画像生成を開始できます。例えば、以下のようなプロンプトを入力してみてください。 </li>
</ol>



<pre class="wp-block-code"><code><code>A beautiful sunset over a serene beach</code></code></pre>



<p>以上が、DiffusionGPTを起動するまでの手順です。手順に沿って進めていけば、簡単にDiffusionGPTを試すことができます。</p>



<h2 class="wp-block-heading">DiffusionGPTの優位性</h2>



<figure class="wp-block-image aligncenter size-full is-resized"><img decoding="async" width="780" height="402" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-06-04-184326.jpg" alt="" class="wp-image-2856" style="width:800px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-06-04-184326.jpg 780w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-06-04-184326-300x155.jpg 300w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-06-04-184326-768x396.jpg 768w" sizes="(max-width: 780px) 100vw, 780px" /></figure>



<p>DiffusionGPTは、従来の画像生成手法と比較して、以下のような優位性を持っています。</p>



<ul class="wp-block-list">
<li>多様な入力プロンプトに対応可能で、汎用性が高い</li>



<li>人間のフィードバックを取り入れ、ユーザーの好みに合わせた生成が可能</li>



<li>TOTとアドバンテージデータベースにより、高精度なモデル選択が可能</li>



<li>プロンプト拡張により、生成画像の品質が向上</li>



<li>学習不要のためプラグアンドプレイで導入可能で、拡張性が高い</li>
</ul>



<p>これらの優位性により、DiffusionGPTは画像生成の分野に大きな進歩をもたらすことが期待されています。</p>



<h2 class="wp-block-heading">今後の展望</h2>



<p>DiffusionGPTは画像生成の分野に新しい可能性を開いていますが、まだいくつかの課題が残されています。</p>



<ul class="wp-block-list">
<li>LLMの最適化プロセスへのフィードバック組み込みによる、よりきめ細やかなプロンプト解析とモデル選択の実現</li>



<li>モデル候補の拡充による、より多彩で印象的な生成結果の追求</li>



<li>テキストから画像への変換以外のタスクへの応用（制御可能な生成、スタイル変換、属性編集など）</li>
</ul>



<p>DiffusionGPTの発展により、AIによる画像生成はさらなる高みへと到達することでしょう。</p>



<h2 class="wp-block-heading">まとめ</h2>



<p>本記事では、LLMを活用した革新的な画像生成フレームワーク「DiffusionGPT」について詳しく解説しました。</p>



<p>DiffusionGPTは、優れた生成モデルをシームレスに統合し、多様なプロンプトを効率的に解析することで、高品質の画像生成を実現します。プロンプト解析、モデルツリーによる検索、人間のフィードバックを取り入れたモデル選択、プロンプト拡張など、そのワークフローを丁寧に説明しました。</p>



<p>また、Pythonでの実装例を交えながら、各ステップの具体的な仕組みにも触れました。DiffusionGPTは学習不要でプラグアンドプレイ可能なため、導入が容易で拡張性にも優れています。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.ct-innovation.blog/dl-freetime/programming/python/2853/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Stable Diffusionで背景をワンクリックで除去！『ABG Remover』の使い方徹底解説</title>
		<link>https://www.ct-innovation.blog/dl-freetime/ai/2841/</link>
					<comments>https://www.ct-innovation.blog/dl-freetime/ai/2841/#respond</comments>
		
		<dc:creator><![CDATA[Yuki]]></dc:creator>
		<pubDate>Mon, 03 Jun 2024 04:39:40 +0000</pubDate>
				<category><![CDATA[AI/MachineLearning]]></category>
		<category><![CDATA[StableDiffusion]]></category>
		<category><![CDATA[ABGRemover]]></category>
		<category><![CDATA[AI]]></category>
		<guid isPermaLink="false">https://www.ct-innovation.blog/dl-freetime/?p=2841</guid>

					<description><![CDATA[こんにちは！Stable Diffusionで画像生成を楽しんでいる皆さん、背景除去に苦労したことはありませんか？実は、『ABG Remover』という拡張機能を使えば、ワンクリックで背景のみを除去できるんです！ 最後ま [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>こんにちは！Stable Diffusionで画像生成を楽しんでいる皆さん、背景除去に苦労したことはありませんか？実は、『ABG Remover』という拡張機能を使えば、ワンクリックで背景のみを除去できるんです！</p>



<p>最後まで読めば、『ABG Remover』を使ってキャラクターだけを切り抜く方法がバッチリ分かります。それでは、早速見ていきましょう！</p>



<h2 class="wp-block-heading">背景のみをなくす拡張機能『ABG Remover』の特徴</h2>



<div class="wp-block-columns is-layout-flex wp-container-core-columns-is-layout-28f84493 wp-block-columns-is-layout-flex">
<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-full is-resized"><img decoding="async" width="512" height="712" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/00032-508546730.jpg" alt="" class="wp-image-2849" style="width:400px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/00032-508546730.jpg 512w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/00032-508546730-216x300.jpg 216w" sizes="(max-width: 512px) 100vw, 512px" /></figure>
</div>



<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-full is-resized"><img decoding="async" width="512" height="712" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/00002-77794325.jpg" alt="" class="wp-image-2850" style="width:400px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/00002-77794325.jpg 512w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/00002-77794325-216x300.jpg 216w" sizes="(max-width: 512px) 100vw, 512px" /></figure>
</div>
</div>



<p>『ABG Remover』は、Stable Diffusionで生成したイラストから背景を消し、キャラクターだけを切り抜くことができる便利な拡張機能です。txt2imgとimg2imgの両方に対応していますが、基本的には、すでに生成済みのイラストからimg2imgでキャラクター部分を切り抜くという使い方が主流になりそうです。</p>



<p>txt2imgでイラストを生成する際、背景なしを望む場合は、「simple background」や「white background」などのプロンプトを使えば対応できます。一方、生成済みのお気に入りイラストからキャラクターだけを切り抜きたいときに、『ABG Remover』が真価を発揮します。</p>



<h2 class="wp-block-heading">ABG Removerの導入方法</h2>



<p>『ABG Remover』のインストールは非常に簡単。Stable Diffusion web UIの操作画面で、以下の手順を踏むだけです。</p>



<div class="wp-block-cocoon-blocks-sticky-box blank-box block-box sticky st-blue">

<a rel="noopener" target="_blank" href="https://github.com/KutsuyaYuki/ABG_extension" title="GitHub - KutsuyaYuki/ABG_extension" class="blogcard-wrap external-blogcard-wrap a-wrap cf"><div class="blogcard external-blogcard eb-left cf"><div class="blogcard-label external-blogcard-label"><span class="fa"></span></div><figure class="blogcard-thumbnail external-blogcard-thumbnail"><img decoding="async" src="https://opengraph.githubassets.com/fc6a764ea65353c714d2777f3a2fb04a6f0c6a2bcd658680a79b9a7887bf7170/KutsuyaYuki/ABG_extension" alt="" class="blogcard-thumb-image external-blogcard-thumb-image" width="320" height="180" /></figure><div class="blogcard-content external-blogcard-content"><div class="blogcard-title external-blogcard-title">GitHub - KutsuyaYuki/ABG_extension</div><div class="blogcard-snippet external-blogcard-snippet">Contribute to KutsuyaYuki/ABG_extension development by creating an account on GitHub.</div></div><div class="blogcard-footer external-blogcard-footer cf"><div class="blogcard-site external-blogcard-site"><div class="blogcard-favicon external-blogcard-favicon"><img decoding="async" src="https://www.google.com/s2/favicons?domain=https://github.com/KutsuyaYuki/ABG_extension" alt="" class="blogcard-favicon-image external-blogcard-favicon-image" width="16" height="16" /></div><div class="blogcard-domain external-blogcard-domain">github.com</div></div></div></div></a>
</div>



<ol class="wp-block-list">
<li>『Extension』→『Install from URL』タブを選択<br><img decoding="async" width="600" height="225" class="wp-image-2844" style="width: 600px;" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-05-24-000914.png" alt="" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-05-24-000914.png 780w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-05-24-000914-300x113.png 300w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-05-24-000914-768x288.png 768w" sizes="(max-width: 600px) 100vw, 600px" /></li>



<li>上記URLをコピー＆ペースト</li>



<li>『Install』ボタンをクリック</li>



<li>インストール完了後、『installed』タブで『Apply and restart UI』ボタンをクリック</li>
</ol>



<figure class="wp-block-image size-full is-resized"><img decoding="async" width="935" height="338" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-05-24-000649.png" alt="" class="wp-image-2843" style="width:800px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-05-24-000649.png 935w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-05-24-000649-300x108.png 300w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-05-24-000649-768x278.png 768w" sizes="(max-width: 935px) 100vw, 935px" /></figure>



<p>再起動後、操作画面左下の『script』に『ABG Remover』の項目が追加されていれば、導入は完了です。</p>



<h2 class="wp-block-heading">ABG Removerの使い方</h2>



<p>ここでは、img2imgを使って生成済みのイラストからキャラクターを切り抜く方法を説明します。</p>



<ol class="wp-block-list">
<li>元となるイラストをimg2imgに読み込む</li>



<li>Denoising strengthを0.01程度の低い値に設定</li>



<li>『script』で『ABG Remover』を選択</li>



<li>『Generate』ボタンをクリック</li>
</ol>



<p>これだけで、(1)元のイラスト、(2)キャラクター判別用の深度マップ、(3)キャラクターのみを切り抜いたイラストの3枚が生成・保存されます。元イラストから絵柄が変わらないよう、Denoising strengthの値は小さめに設定することを忘れずに。</p>



<p>『ABG Remover』には、以下の4つの設定項目があります。</p>



<ul class="wp-block-list">
<li>Only save background free pictures</li>



<li>Do not auto save</li>



<li>Custom Background</li>



<li>Random Custom Background</li>
</ul>



<p>「Only save background free pictures」にチェックを入れると、元イラストと深度マップは生成結果に表示されなくなります。「Do not auto save」をオンにすると、生成イラストが保存されなくなります。「Custom Background」では、背景色を自由に変更できます。ただし、白以外の色だと、髪の毛周りなどがうまく抜き出せていない部分が目立つので注意が必要。基本的には白背景がおすすめです。クロマキーで抜きたいとかなら緑背景にするのがいいかもしれません。「Random Custom Background」にチェックを入れると、背景色がランダムに設定されますが、同様の理由からあまり使わないかもしれません。</p>



<figure class="wp-block-image size-full is-resized"><img decoding="async" width="905" height="856" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-05-24-001042.png" alt="" class="wp-image-2845" style="width:800px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-05-24-001042.png 905w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-05-24-001042-300x284.png 300w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/06/スクリーンショット-2024-05-24-001042-768x726.png 768w" sizes="(max-width: 905px) 100vw, 905px" /></figure>



<h2 class="wp-block-heading">まとめ</h2>



<ul class="wp-block-list">
<li>『ABG Remover』を使えば、Stable Diffusionで背景を簡単に除去できる</li>



<li>導入はわずか数ステップ、使い方も非常にシンプル</li>



<li>イラスト生成のコツを押さえて、より効率的に『ABG Remover』を活用しよう</li>



<li>無料の画像管理ソフトを使って、生成イラストを整理するのもおすすめ</li>
</ul>



<p>以上、Stable Diffusionの拡張機能『ABG Remover』について詳しく解説してきました。背景除去にお悩みの方は、ぜひ『ABG Remover』を試してみてください。きっと画像生成がもっと楽しくなるはずです！</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.ct-innovation.blog/dl-freetime/ai/2841/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>【完全版】Stable Diffusion WebUI Forgeの特徴とインストール方法</title>
		<link>https://www.ct-innovation.blog/dl-freetime/programming/python/2608/</link>
					<comments>https://www.ct-innovation.blog/dl-freetime/programming/python/2608/#respond</comments>
		
		<dc:creator><![CDATA[Yuki]]></dc:creator>
		<pubDate>Mon, 25 Mar 2024 01:43:00 +0000</pubDate>
				<category><![CDATA[AI/MachineLearning]]></category>
		<category><![CDATA[Python]]></category>
		<category><![CDATA[プログラミング]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[StableDiffusion]]></category>
		<guid isPermaLink="false">https://www.ct-innovation.blog/dl-freetime/?p=2608</guid>

					<description><![CDATA[Stable Diffusion WebUI Forgeは、高性能なStable Diffusion XL（SDXL）をローカル環境で動かせるツールです。本記事では、Forgeの特徴や本家WebUIとの比較、そしてインス [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>Stable Diffusion WebUI Forgeは、高性能なStable Diffusion XL（SDXL）をローカル環境で動かせるツールです。本記事では、Forgeの特徴や本家WebUIとの比較、そしてインストール方法と使い方を解説します。</p>



<h2 class="wp-block-heading">Stable Diffusion WebUI Forgeとは？</h2>



<p>Stable Diffusion WebUI Forge（以下、Forge）は、Stable Diffusion web UIをベースにした画像生成ツールです。Forgeは、画像生成処理の高速化とVRAM使用量の削減を実現しています。また、ControlNetを使った場合の処理速度も向上しています。</p>



<div class="wp-block-cocoon-blocks-blogcard blogcard-type bct-reference-link">

<a rel="noopener" target="_blank" href="https://github.com/AUTOMATIC1111/stable-diffusion-webui" title="GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI" class="blogcard-wrap external-blogcard-wrap a-wrap cf"><div class="blogcard external-blogcard eb-left cf"><div class="blogcard-label external-blogcard-label"><span class="fa"></span></div><figure class="blogcard-thumbnail external-blogcard-thumbnail"><img decoding="async" src="https://opengraph.githubassets.com/4b853fb157904a851a1ce4927acc17b8562383ef6f8ad8bc34defcdfa67343eb/AUTOMATIC1111/stable-diffusion-webui" alt="" class="blogcard-thumb-image external-blogcard-thumb-image" width="320" height="180" /></figure><div class="blogcard-content external-blogcard-content"><div class="blogcard-title external-blogcard-title">GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI</div><div class="blogcard-snippet external-blogcard-snippet">Stable Diffusion web UI. Contribute to AUTOMATIC1111/stable-diffusion-webui development by creating an account on GitHub...</div></div><div class="blogcard-footer external-blogcard-footer cf"><div class="blogcard-site external-blogcard-site"><div class="blogcard-favicon external-blogcard-favicon"><img decoding="async" src="https://www.google.com/s2/favicons?domain=https://github.com/AUTOMATIC1111/stable-diffusion-webui" alt="" class="blogcard-favicon-image external-blogcard-favicon-image" width="16" height="16" /></div><div class="blogcard-domain external-blogcard-domain">github.com</div></div></div></div></a>
</div>



<h2 class="wp-block-heading">Forgeの特徴</h2>



<p>Forgeは、高性能なグラフィックボードを搭載していないPCでも快適に画像生成を行うことができます。また、これからローカル環境で画像生成を始めたい方にもおすすめのツールです。</p>



<h2 class="wp-block-heading">本家WebUIとの比較</h2>



<p>Forgeと本家WebUIを比較すると、以下のような違いがあります。</p>



<ol class="wp-block-list">
<li>8GBのvramのような一般的なGPUを使用する場合、推論速度(it/s)が<span class="marker-under-blue">約<strong>30~45%向上</strong></span>し、GPUメモリのピーク(タスクマネージャー)が約700MBから1.3GBに低下し、最大拡散分解能(OOMにならない)が約2倍から3倍に増加し、最大拡散バッチサイズ(OOMにならない)が約4倍から6倍に増加することが期待できます。</li>



<li>6GBのvramのような性能の低いGPUを使用すると、推論速度(it/s)が<span class="marker-under-blue">約<strong>60~75%向上</strong></span>し、GPUメモリのピーク(タスクマネージャー)が約800MBから1.5GBに低下し、最大拡散分解能(OOMにならない)が約3倍に増加し、最大拡散バッチサイズ(OOMにならない)が約4倍に増加することが期待できます。</li>



<li>24GBのVRAMで4090のような強力なGPUを使用すると、推論速度(it/s)が<span class="marker-under-blue">約<strong>3~6%向上</strong></span>し、GPUメモリのピーク(タスクマネージャー)が約1GBから1.4GBに低下し、最大拡散分解能(OOMにならない)が約1.6倍に増加し、最大拡散バッチサイズ(OOMにならない)が約2倍に増加することが期待できます。</li>



<li>ControlNet for SDXLを使用すると、ControlNetの最大数(OOMにならない)が約2倍になり、SDXL+ControlNetで<span class="marker-under-blue">約<strong>30~45%高速化</strong></span>します。</li>
</ol>



<p>ただ、Forgeはまだリリースされたばかりのツールであるため、安定性などを重視する場合は本家WebUIを使用することをおすすめします。</p>



<h3 class="wp-block-heading">ここは同じ</h3>



<p>見た目は本当に見分けがつかないほどほぼ一緒です。以下が比較画像です。見た目を変にいじる予定はないと明言しています。</p>



<blockquote class="wp-block-quote is-layout-flow wp-block-quote-is-layout-flow">
<p>Forgeは、自分たちの仕事だけをすることを約束します。Forge は、ユーザーインターフェースに不必要な変更を追加することはありません。100%Automatic1111WebUIを使用しています。</p>
</blockquote>



<div class="wp-block-columns is-layout-flex wp-container-core-columns-is-layout-28f84493 wp-block-columns-is-layout-flex">
<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<p><span class="marker-under">本家WebUI</span></p>



<figure class="wp-block-image size-full is-resized"><img decoding="async" width="780" height="541" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-22-222018.png" alt="" class="wp-image-2598" style="width:400px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-22-222018.png 780w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-22-222018-300x208.png 300w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-22-222018-768x533.png 768w" sizes="(max-width: 780px) 100vw, 780px" /></figure>
</div>



<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<p><span class="marker-under-blue">Forge</span></p>



<figure class="wp-block-image size-full is-resized"><img decoding="async" width="780" height="543" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-22-222033.png" alt="" class="wp-image-2599" style="width:400px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-22-222033.png 780w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-22-222033-300x209.png 300w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-22-222033-768x535.png 768w" sizes="(max-width: 780px) 100vw, 780px" /></figure>
</div>
</div>



<div class="wp-block-cocoon-blocks-balloon-ex-box-1 speech-wrap sb-id-3 sbs-line sbp-l sbis-cb cf block-box not-nested-style cocoon-block-balloon"><div class="speech-person"><figure class="speech-icon"><img decoding="async" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/02/cropped-図1-e1709253991344.png" alt="" class="speech-icon-image"/></figure><div class="speech-name"></div></div><div class="speech-balloon">
<p>GUIをあえていじらないという本家へのリスペクトによってユーザーは移行するために使い方の覚えなおしなどが不要なのはとてもうれしいですね。</p>
</div></div>



<h2 class="wp-block-heading">Forgeの公式リポジトリ</h2>



<p>Forgeの公式リポジトリは、GitHubにあります。</p>



<div class="wp-block-cocoon-blocks-blogcard blogcard-type bct-official">

<a rel="noopener" target="_blank" href="https://github.com/lllyasviel/stable-diffusion-webui-forge" title="GitHub - lllyasviel/stable-diffusion-webui-forge" class="blogcard-wrap external-blogcard-wrap a-wrap cf"><div class="blogcard external-blogcard eb-left cf"><div class="blogcard-label external-blogcard-label"><span class="fa"></span></div><figure class="blogcard-thumbnail external-blogcard-thumbnail"><img decoding="async" src="https://opengraph.githubassets.com/4a1c5def36fd840f64807e35afafc0a18db9abc8b835dcd7e275533bf6d472ce/lllyasviel/stable-diffusion-webui-forge" alt="" class="blogcard-thumb-image external-blogcard-thumb-image" width="320" height="180" /></figure><div class="blogcard-content external-blogcard-content"><div class="blogcard-title external-blogcard-title">GitHub - lllyasviel/stable-diffusion-webui-forge</div><div class="blogcard-snippet external-blogcard-snippet">Contribute to lllyasviel/stable-diffusion-webui-forge development by creating an account on GitHub.</div></div><div class="blogcard-footer external-blogcard-footer cf"><div class="blogcard-site external-blogcard-site"><div class="blogcard-favicon external-blogcard-favicon"><img decoding="async" src="https://www.google.com/s2/favicons?domain=https://github.com/lllyasviel/stable-diffusion-webui-forge" alt="" class="blogcard-favicon-image external-blogcard-favicon-image" width="16" height="16" /></div><div class="blogcard-domain external-blogcard-domain">github.com</div></div></div></div></a>
</div>



<p>このリポジトリでは、Forgeの最新版のソースコードや、インストール方法、使い方などが詳しく説明されています。また、リポジトリのIssuesページでは、バグ報告や機能リクエストなども行われています。</p>



<h2 class="wp-block-heading">Forgeのインストール方法</h2>



<h3 class="wp-block-heading">その１：ワンクリックインストールパッケージを使う場合（簡単で推奨）</h3>



<p>リストに貼り付けているリンクは公式から指定されているURLをそのままリンクにしただけですので安心してクリックしてください、ダウンロードが始まります。</p>



<ol class="wp-block-list">
<li>Pythonをインストールする</li>



<li><a rel="noopener" target="_blank" href="https://github.com/lllyasviel/stable-diffusion-webui-forge/releases/download/latest/webui_forge_cu121_torch21.7z">ここ</a>からワンクリックパッケージをインストールする</li>



<li>7zファイルを解凍する<br><img decoding="async" width="600" height="178" class="wp-image-2596" style="width: 600px;" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-22-221129.png" alt="" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-22-221129.png 760w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-22-221129-300x89.png 300w" sizes="(max-width: 600px) 100vw, 600px" /></li>



<li><span class="marker-under">update.batを実行する←これは最初、またはアップデートの案内があった場合のみでいい</span></li>



<li>run.batを実行する</li>
</ol>



<h3 class="wp-block-heading">その２：GitHubからのリポジトリを直接利用する場合（取り回しがきく）</h3>



<p>Forgeのインストール方法は以下の通りです。</p>



<ol class="wp-block-list">
<li>Pythonをインストールする</li>



<li>Gitをインストールする</li>



<li>Forgeのリポジトリをクローンする</li>



<li>webui-user.batを実行する</li>
</ol>



<h2 class="wp-block-heading">おわりに</h2>



<p>Stable Diffusion WebUI Forgeは、高速な画像生成と省VRAMを実現した優れたツールです。本記事では、Forgeの特徴やインストール方法、使い方を詳しく解説しました。</p>



<p>Forgeは、高性能なグラフィックボードを搭載していないPCでも快適に画像生成を行うことができるため、これからローカル環境で画像生成を始めたい方にもおすすめのツールです。</p>



<p>また、Forgeの公式リポジトリでは、最新版のソースコードやインストール方法、使い方などが詳しく説明されています。バグ報告や機能リクエストなども行われているため、Forgeのさらなる発展に期待ができます。</p>



<p>ぜひ本記事を参考に、Forgeをインストールして使ってみてください。Forgeを使えば、より高速かつ効率的に画像生成を行うことができるでしょう。</p>



<h2 class="wp-block-heading">プロンプトにお困りの方</h2>



<p>StableDiffusionを立ち上げたはいいけど何を作ろう。と困っているなら、「<a rel="nofollow noopener" target="_blank" href="https://px.a8.net/svt/ejp?a8mat=3Z52TQ+FA4LAA+50I2+NTRMQ" data-type="link" data-id="https://px.a8.net/svt/ejp?a8mat=3Z52TQ+FA4LAA+50I2+NTRMQ">PromptWorks</a>」を見てみるのはどうでしょう？様々な分野の専門家が作成した高品質なプロンプトが揃っています。AIアートの可能性を広げるプロンプトマーケットプレイスで、あなたのクリエイティビティを新たなレベルへと導きます。プロンプターとしての参加も歓迎されているので上手になってきたら売ることもできる！</p>



<div class="wp-block-columns is-layout-flex wp-container-core-columns-is-layout-28f84493 wp-block-columns-is-layout-flex">
<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<a rel="nofollow noopener" target="_blank" href="https://px.a8.net/svt/ejp?a8mat=3Z52TQ+FA4LAA+50I2+NU729">
<img decoding="async" border="0" width="300" height="250" alt="" src="https://www26.a8.net/svt/bgt?aid=240422030924&#038;wid=003&#038;eno=01&#038;mid=s00000023393004004000&#038;mc=1"></a>
<img decoding="async" border="0" width="1" height="1" src="https://www12.a8.net/0.gif?a8mat=3Z52TQ+FA4LAA+50I2+NU729" alt="">
</div>



<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<a rel="nofollow noopener" target="_blank" href="https://px.a8.net/svt/ejp?a8mat=3Z52TQ+F8CAGY+34L2+HZI6P">
<img decoding="async" border="0" width="300" height="250" alt="" src="https://www26.a8.net/svt/bgt?aid=240422030921&#038;wid=003&#038;eno=01&#038;mid=s00000014591003021000&#038;mc=1"></a>
<img decoding="async" border="0" width="1" height="1" src="https://www14.a8.net/0.gif?a8mat=3Z52TQ+F8CAGY+34L2+HZI6P" alt="">
</div>



<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<a rel="nofollow noopener" target="_blank" href="https://px.a8.net/svt/ejp?a8mat=3Z52TQ+F6JZNM+5EP6+5Z6WX">
<img decoding="async" border="0" width="300" height="250" alt="" src="https://www27.a8.net/svt/bgt?aid=240422030918&#038;wid=003&#038;eno=01&#038;mid=s00000025233001004000&#038;mc=1"></a>
<img decoding="async" border="0" width="1" height="1" src="https://www10.a8.net/0.gif?a8mat=3Z52TQ+F6JZNM+5EP6+5Z6WX" alt="">
</div>
</div>
]]></content:encoded>
					
					<wfw:commentRss>https://www.ct-innovation.blog/dl-freetime/programming/python/2608/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Stable Diffusion3の研究論文を読み解く &#8211; 期待できる新機能は?</title>
		<link>https://www.ct-innovation.blog/dl-freetime/ai/2544/</link>
					<comments>https://www.ct-innovation.blog/dl-freetime/ai/2544/#respond</comments>
		
		<dc:creator><![CDATA[Yuki]]></dc:creator>
		<pubDate>Wed, 13 Mar 2024 06:54:49 +0000</pubDate>
				<category><![CDATA[AI/MachineLearning]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[stability.ai]]></category>
		<category><![CDATA[StableDiffusion]]></category>
		<category><![CDATA[StableDiffusion3]]></category>
		<guid isPermaLink="false">https://www.ct-innovation.blog/dl-freetime/?p=2544</guid>

					<description><![CDATA[Stable Diffusionは、テキストからアートを生成するAI技術として大きな注目を集めています。開発元のStability AIが最近、Stable Diffusion 3の研究論文を公開しました。この論文を読み [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>Stable Diffusionは、テキストからアートを生成するAI技術として大きな注目を集めています。開発元のStability AIが最近、Stable Diffusion 3の研究論文を公開しました。この論文を読み解くことで、次期バージョンでどのような新機能が期待できるのか考察してみます。</p>



<h2 class="wp-block-heading">パフォーマンスの向上</h2>



<p>まずは、利用者によるフィードバック（主観）に基づいてパフォーマンスを評価されていました。各モデルからの出力例を見せて、以下の3つのポイントを争点として比較しています。</p>



<div class="wp-block-cocoon-blocks-tab-box-1 blank-box bb-tab bb-point block-box">
<ul class="wp-block-list">
<li>prompt following：プロンプトのコンテキストにどれだけ忠実に従っているか</li>



<li>typography：プロンプトに基づいてテキストがどの程度適切にレンダリングされたか</li>



<li>visual aesthetics：より美的品質が高いのはどちらか</li>
</ul>
</div>



<p>比較対象は以下の通りです。</p>



<div class="wp-block-cocoon-blocks-tab-box-1 blank-box bb-tab bb-pickup block-box">
<ul class="wp-block-list">
<li>SDXL</li>



<li>SDXL Turbo</li>



<li>Stable Cascade</li>



<li>Playground v2.5</li>



<li>Pixart-α</li>



<li>DALL-E 3</li>



<li>Midjourney v6</li>



<li>Ideogram v1</li>
</ul>
</div>



<p>Stable Diffusion 3は、現在の最先端のテキストから画像への生成システムと同等またはそれ以上の性能を発揮すると結論付けています。</p>



<figure class="wp-block-image aligncenter size-full is-resized"><img decoding="async" width="640" height="480" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/baseline_cmp.png" alt="" class="wp-image-2552" style="width:640px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/baseline_cmp.png 640w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/baseline_cmp-300x225.png 300w" sizes="(max-width: 640px) 100vw, 640px" /></figure>



<h2 class="wp-block-heading">出力速度の改善</h2>



<p>最大のモデルでの出力がRTX 4090の24GB VRAMを使って、50サンプリングステップで解像度1024&#215;1024の条件の画像を生成するのに34秒で完了するようになったそうです。</p>



<p>さらに、Stable Diffusion 3の初期リリース時には、ハードウェアによる制限をなくすため複数のバリエーション（800mから8Bのパラメータモデルまで）が用意される予定とのこと。</p>



<div class="wp-block-cocoon-blocks-balloon-ex-box-1 speech-wrap sb-id-3 sbs-line sbp-l sbis-cb cf block-box not-nested-style cocoon-block-balloon"><div class="speech-person"><figure class="speech-icon"><img decoding="async" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/02/cropped-図1-e1709253991344.png" alt="" class="speech-icon-image"/></figure><div class="speech-name"></div></div><div class="speech-balloon">
<p>GPUは必要でしょうが、それなりのスペックのものでも動くようにしますよっていうアナウンスはとてもうれしいですね。参入障壁が下がります。</p>
</div></div>



<h2 class="wp-block-heading">階層構造の改善</h2>



<h3 class="wp-block-heading">Multimodal Diffusion Transformer (MMDiT)</h3>



<figure class="wp-block-image aligncenter size-full is-resized"><img decoding="async" width="760" height="510" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-13-143008.png" alt="" class="wp-image-2553" style="width:800px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-13-143008.png 760w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-13-143008-300x201.png 300w" sizes="(max-width: 760px) 100vw, 760px" /></figure>



<p>Stable Diffusion 3における大きな改善点の一つとして、より効果的な階層構造の構築が挙げられています。従来のStable Diffusionでは、テキストエンコーダーとイメージディフュージョンモデルが別々に存在していましたが、MMDiTではこれらを1つのマルチモーダルトランスフォーマーに統合しています。</p>



<p>つまり、MMDiTはテキスト・画像の両方の入力を受け取り、それらを単一の潜在空間にマッピングします。そして、この潜在空間内で単一のトランスフォーマーモデルが双方向の注意を行うことで、テキストから画像への条件付けを直接的に行えるようになっています。</p>



<p>この設計により、従来手法に比べて以下のようなメリットが期待できます。</p>



<ol class="wp-block-list">
<li>複雑な潜在空間構造をシームレスにモデル化できる</li>



<li>異なるモダリティ間の相互作用を効果的に捉えられる</li>



<li>モダリティ固有のモジュールを必要とせず、パラメータを削減できる</li>
</ol>



<p>結果として、MMDiTは画像生成の表現力やモダリティ間の一貫性を高めながら、同時にモデルの簡素化や効率化も図れる可能性があるアーキテクチャとなる可能性があります。この改善により、構造の複雑なオブジェクトをより高品質に生成できる可能性があります。例えば、人物の顔や手の細かい部分、建物の入り組んだ形状などをよりリアルに表現できるかもしれません。</p>



<h3 class="wp-block-heading">Rectified Flow Transformer</h3>



<p>従来の生成モデルでは、低解像度の潜在空間から徐々に解像度を上げながら画像を生成していました。しかし、このアプローチには解像度が上がるにつれて、情報が失われていく問題がありました。</p>



<p>Rectified Flow Transformerは、この問題を解決するために考案されています。これは以下の2つの主要な技術から成り立っています。</p>



<ol class="wp-block-list">
<li>Rectified Flow<br>これは画像生成の際の情報損失を最小限に抑えるための手法です。具体的には、ピクセル単位のflow fieldを導入し、各解像度レベルで画像を「整流(rectify)」することで、解像度の上げ下げによる情報損失を防いでいます。</li>



<li>Conditioning Augmentations<br>生成される画像の質と多様性を高めるための一連の手法です。学習時に潜在コードにノイズを加えたり、アテンションマスクを適用したりすることで、モデルの表現力と柔軟性を高めています。</li>
</ol>



<p>このRectified Flow Transformerアーキテクチャを採用することで、従来の手法に比べて高解像度の画像をクリーンに生成できるようになり、かつ表現の多様性も確保できるようになったとされています。</p>



<p>つまり、Stable Diffusionの次期バージョンでこの手法が取り入れられれば、4K超の超高解像度画像生成が実現できる可能性があり、画質と表現力の両面で大きな進化が期待できるというわけです。</p>



<h3 class="wp-block-heading">Stable Diffusion 3での出力例</h3>



<p>アーキテクチャの改良のおかげで、画像自体のスタイルに高い柔軟性を保ちながらさまざまな異なる被写体や品質に焦点を当てた画像を作成できるようになりました。以下が、出力例です。</p>



<figure class="wp-block-image aligncenter size-full is-resized"><img decoding="async" width="780" height="647" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/BlogSD3.jpg" alt="" class="wp-image-2548" style="width:800px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/BlogSD3.jpg 780w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/BlogSD3-300x249.jpg 300w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/BlogSD3-768x637.jpg 768w" sizes="(max-width: 780px) 100vw, 780px" /></figure>



<figure class="wp-block-image aligncenter size-full is-resized"><img decoding="async" width="780" height="459" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-13-153943.jpg" alt="" class="wp-image-2554" style="width:800px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-13-153943.jpg 780w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-13-153943-300x177.jpg 300w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/03/スクリーンショット-2024-03-13-153943-768x452.jpg 768w" sizes="(max-width: 780px) 100vw, 780px" /></figure>



<h2 class="wp-block-heading">空間的注意分散の改良</h2>



<p>さらに、Stable Diffusion 3では空間的注意分散のメカニズムが改良されています。このメカニズムは、生成画像の各部分に適切な注意を払うことで、矛盾のない完全な画像を出力するのに役立ちます。</p>



<p>論文によると、空間的注意分散のプロセスをさらに洗練させることで、生成物の一貫性と整合性が向上するとされています。つまり、モデルが物体同士の関係性をよりうまく捉えられるようになり、違和感のない自然な画像を生み出せる可能性が高まるということです。</p>



<h2 class="wp-block-heading">まとめ</h2>



<p>Stable Diffusion 3の論文を確認した限り、階層構造の改善、空間的注意の改良、高解像度対応、対象物体への注目機能強化など、さまざまな新機能の搭載が示唆されています。一方で、まだ実験的な段階であり、リリース時期は不透明です。</p>



<p>よりリアルで高品質な画像生成が実現できるであろうStable Diffusion 3の今後の動向に注目したいです。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.ct-innovation.blog/dl-freetime/ai/2544/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>StableDiffusionとは？AIの次世代画像生成技術</title>
		<link>https://www.ct-innovation.blog/dl-freetime/programming/python/2206/</link>
					<comments>https://www.ct-innovation.blog/dl-freetime/programming/python/2206/#respond</comments>
		
		<dc:creator><![CDATA[Yuki]]></dc:creator>
		<pubDate>Mon, 04 Mar 2024 13:23:22 +0000</pubDate>
				<category><![CDATA[AI/MachineLearning]]></category>
		<category><![CDATA[Python]]></category>
		<category><![CDATA[プログラミング]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[StableDiffusion]]></category>
		<guid isPermaLink="false">https://www.ct-innovation.blog/dl-freetime/?p=2206</guid>

					<description><![CDATA[近年、AIの画像生成技術は驚異的な進化を遂げています。その中でも、StableDiffusionと呼ばれる手法は特に注目されています。本記事では、StableDiffusionの基本原理から応用例までを詳しく解説します。 [&#8230;]]]></description>
										<content:encoded><![CDATA[
<p>近年、AIの画像生成技術は驚異的な進化を遂げています。その中でも、StableDiffusionと呼ばれる手法は特に注目されています。本記事では、StableDiffusionの基本原理から応用例までを詳しく解説します。</p>



<span id="more-2206"></span>



<h2 class="wp-block-heading"><strong>StableDiffusionとは？</strong></h2>



<p>StableDiffusionは、生成モデルの一つであり、画像や動画の生成に用いられます。従来のGAN（Generative Adversarial Network）やVAE（Variational Autoencoder）などの手法と比較して、高品質な画像生成が可能であるとされています。</p>



<p>この手法は、連続的な画像生成を行うことができる点が特徴的です。つまり、ランダムなノイズから開始して、段階的に画像を生成していくことができます。また、生成された画像は高品質であり、リアルなテクスチャやディテールを持っています。</p>



<h2 class="wp-block-heading"><strong>StableDiffusionの基本原理</strong></h2>



<figure class="wp-block-image aligncenter size-full is-resized"><img decoding="async" width="780" height="398" src="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/02/スクリーンショット-2024-02-28-224457.png" alt="" class="wp-image-2207" style="width:800px" srcset="https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/02/スクリーンショット-2024-02-28-224457.png 780w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/02/スクリーンショット-2024-02-28-224457-300x153.png 300w, https://www.ct-innovation.blog/dl-freetime/wp-content/uploads/2024/02/スクリーンショット-2024-02-28-224457-768x392.png 768w" sizes="(max-width: 780px) 100vw, 780px" /></figure>



<p>StableDiffusionの基本原理は、拡散方程式（Diffusion Equation）に基づいています。この方程式は、物質の拡散現象を記述する数学的なモデルであり、時間とともに物質が拡散していく様子を表現します。</p>



<p>StableDiffusionでは、画像をノイズとして扱い、時間の経過とともにそのノイズを拡散させていきます。この過程を通じて、ノイズが徐々に画像の形状や特徴に変換されていきます。そして、一定の時間が経過した時点で、最終的な画像が生成されます。</p>



<h3 class="wp-block-heading">少し詳しく解説</h3>



<p>StableDiffusionは、画像生成におけるAI技術の一つであり、その内部では複数のブロックが連携して動作しています。以下に、StableDiffusionの各ブロックが行っている主な役割を解説します。</p>



<h4 class="wp-block-heading"><strong>Diffusion Process Block（拡散プロセスブロック）</strong></h4>



<p>このブロックでは、初期のランダムノイズから始まり、時間とともにノイズが徐々に画像の形状や特徴に変換されるプロセスが行われます。拡散方程式を用いてノイズが拡散し、段階的に画像生成の過程が進行します。</p>



<h4 class="wp-block-heading"><strong>Generation Block（生成ブロック）</strong></h4>



<p>このブロックでは、拡散プロセスが進行するにつれて生成された画像が保持されます。拡散されたノイズから生成された画像を収集し、最終的な画像を生成するために使用されます。</p>



<h4 class="wp-block-heading"><strong>Loss Calculation Block（損失計算ブロック）</strong></h4>



<p>このブロックでは、生成された画像と元の画像との間の差異を計算し、損失を評価します。損失関数を最小化するように、生成プロセスを調整して画像の品質を向上させます。</p>



<h4 class="wp-block-heading"><strong>Optimization Block（最適化ブロック）</strong></h4>



<p>このブロックでは、損失関数を最小化するための最適化手法が適用されます。勾配降下法などの最適化アルゴリズムが使用され、生成プロセスのパラメータが調整されます。</p>



<h4 class="wp-block-heading"><strong>Evaluation Block（評価ブロック）</strong></h4>



<p>このブロックでは、生成された画像の品質や性能を評価するための指標が計算されます。PSNR（Peak Signal-to-Noise Ratio）やSSIM（Structural Similarity Index）などの指標が使用され、生成された画像の品質を定量化します。</p>



<h2 class="wp-block-heading"><strong>StableDiffusionの仕組み</strong></h2>



<p>StableDiffusionの仕組みを具体的に見てみましょう。以下に、その概要を示します。</p>



<ol class="wp-block-list">
<li><strong>ノイズの初期化</strong>: まず、ランダムなノイズを生成します。このノイズは、画像の初期状態を表現します。</li>



<li><strong>拡散プロセスの実行</strong>: 生成されたノイズに対して、拡散方程式を適用します。これにより、ノイズが時間とともに拡散していきます。</li>



<li><strong>画像生成の進行</strong>: 拡散プロセスが進行するにつれて、ノイズは段階的に画像の形状や特徴に変換されていきます。これにより、画像が徐々に生成されていきます。</li>



<li><strong>最終画像の生成</strong>: 一定の時間が経過した時点で、最終的な画像が生成されます。この画像は、高品質でリアルな特徴を持っています。</li>
</ol>



<h2 class="wp-block-heading"><strong>StableDiffusionの応用例</strong></h2>



<p>StableDiffusionは、様々な応用分野で活用されています。以下に、その主な応用例を示します。</p>



<ol class="wp-block-list">
<li><strong>画像生成</strong>: StableDiffusionは、高品質な画像生成に利用されます。特に、リアルなテクスチャやディテールを持つ画像を生成する際に威力を発揮します。</li>



<li><strong>動画生成</strong>: StableDiffusionは、静止画だけでなく動画の生成にも利用されます。時間とともに変化する画像の生成が可能であり、臨場感のある映像を作成することができます。</li>



<li><strong>デザイン支援</strong>: StableDiffusionは、デザインの支援にも活用されます。例えば、新しい製品や建物のデザインを仮想空間で試行錯誤する際に役立ちます。</li>



<li><strong>医療画像の生成</strong>: StableDiffusionは、医療画像の生成にも応用されます。例えば、病理学的な特徴を持つ画像を生成し、医師の診断支援に役立ちます。</li>
</ol>



<h2 class="wp-block-heading"><strong>まとめ</strong></h2>



<p>StableDiffusionは、AIの画像生成技術の一つとして注目されています。その基本原理や仕組み、そして応用例について理解することで、その可能性をより深く探求することができます。今後もStableDiffusionの進化に注目し、その応用範囲の拡大を期待しましょう。</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.ct-innovation.blog/dl-freetime/programming/python/2206/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
