スポンサーリンク
Stable Diffusion

SDXLなどの生成AIをするのにおすすめのPC(2023年8月版)

Stable Diffusionの新バージョンSDXLやMetaのLlama2などをローカル環境で使うのに最適なPCを選定してみました。よく人に聞かれるので、私ならこれを買いたいというPCを選びました。ちなみに私は自作PCでRTX3080の10GBを使っていますが、SDXLやLlama2ではやや力不足感を感じており、近々買い替える予定です。。。
Stable Diffusion

SDXL1.0と高品質モデルを導入

ついにStability AIから商用可能な高品質画像生成AIのStable DiffuisionのアップグレードバージョンSDXL1.0がリリースされました。高品質なcheckpointも次々リリースされつつあります。早速、それらを試してみます。
自然言語処理

MetaのLlama2をローカル環境で動かしてみる(検証1)

Meta社からGPT-3並みのLLM(大規模言語モデル)がオープンソースとして公開されましたので、早速使ってみます。私の環境で一番問題となるのはVRAM容量です。LLMは大量のVRAMを消費することが多いので、GTX3080の10GBなので、動くかが問題です。今回、7B、13B、70Bと3種類のサイズのモデル(1Bは10億パラメータ)と、それぞれに普通の自然言語モデルと対話形式にチューニングされたモデルがあります。しかも今回、商用利用も可能とのことで、否が応でも盛り上がります。
環境構築

WSL2の仕組みをまとめてみる

LLM関連を試すのにUbuntuを触らざるを得なくなりそうなので、WSL2のUbuntuの仕組みを勉強しなおしてみました。私自身がほぼ素人なので、初めてWSL2を触る人でも分かりやすいようにまとめていきます。間違った記載があったら教えてください。
Stable Diffusion

mov2movでTiktok動画作成最新版

mov2movでTiktok動画を作成します。以前も同じようなブログをあげたのですが、ControlNetにReferenceが追加されたことにより、以前よりずっと楽になっています。最近流行りの「中身はおじさんの美女動画」も簡単に作れます。
Stable Diffusion

Stable Diffusionでブログのバナーを作ってみる

Stable DiffusionとControlNetを使って一発でブログなどで使えるタイトルバナーを作ってみます。非常に簡単な手順で作れるので、お試しあれ。
Stable Diffusion

Stable Diffusionで描きたいものを描くためのチュートリアル

Stable Diffusionでプロンプトを操って描きたいイラストを生成するためのチュートリアルを作ってみました。どのようにプロンプトを設定したらよいか分からない方の参考になればと思います。
Stable Diffusion

【初心者向け①】Stable Diffusionで良いイラストを生成する最低限の設定

Stable Diffusionを使おうと思ったが、どこをどう設定したらよいか分からない方に向けてStable Diffusionで画像生成を楽しむための最低限の設定方法を解説します。これからStable Diffusionで画像生成してみたい方はご参考ください。
Stable Diffusion

Stable Diffusionで昭和感のある女性の写真を出す研究 with chatGPT

Stable Diffusionで昭和感のある写真を出してみます。生成のサポートにはchatGPTを使っています。昭和生まれの人には懐かしさのある、また、平成生まれ以降の人には新鮮な昭和の世界を再現してみます。
Stable Diffusion

Deforum Stable Diffusionでアニメーションを作る方法を徹底調査

今回は手軽に不思議なアニメを作れるDeforum Stable Diffusionを使ってみます。Tiktokなどで使っている人は使っていると思うのですが、設定が複雑なので、オンラインでも解説は多くありません。手軽に動画を作れるので、是非使ってみてはいかがでしょうか。
Stable Diffusion

Inpaint+ControlNetでスマホで撮影した写真にStable DiffusionのAI美女生成画像を重ねる研究

旅行の楽しみはやっぱり(?)写真ですね。一人旅の味気ない写真もAI美女、AIイケメンが一緒なら旅の思い出にいろどりを添えてくれます。スマホの写真にStable Diffusionの生成画像を違和感なく重ねて、合成画像を作ってみます。今回、InpaintとControlNetをうまく使って画像生成する方法を試して見ました。
Stable Diffusion

InpaintでAI美女にオリジナルTシャツを着てもらう方法を検証

Stable DiffusionでオリジナルTシャツをAI美女に着せた画像の生成を検証してみます。ControlNetを通して、Tシャツに模様を転写することで、比較的自然なプリントシャツができます。
Stable Diffusion

画像を変更を最小限にマンガ風の白黒線画に変える検証

生成した画像や手持ちの画像をマンガ風の白黒線画に変える方法を検証してみます。白黒画像生成にはControlNetのCannyと線画LoRAおよび画質調整系のboldlineのLoRAを使用します。また、ピンポイントの黒塗りはCutoffを使うと簡単です。
Stable Diffusion

After Detailerで顔をきれいに出力する方法を他の方法と比較検証してみる

Stable Diffusion WebUIのAfter Detailerの拡張機能を使うと画像の構図を大きく変えずに顔や体のみを高精度化してくれます。今回、After Detailerの使用方法と、顔に焦点を当てて、いろいろな他の拡張機能との違いを検証してみました。
Stable Diffusion

QRコード風AI画像アートを検証する

Twitterで話題のQRコード風のAI画像アートを検証します。ControlNetをうまく組み合わせるのがコツです。背景付きなどの変化させたコードはQRコードと呼んではいけないそうなので、「QRコード風AI画像アート」と呼びますが、スマホで読めるコードの生成を目指します。
Python基礎

PythonでQRコードを作ってみる

chatGPTに教えて手伝ってもらって、PythonでQRコードを作成しましたので、個人的なメモのためにコードを記録します。ここでは、QRコードを生成してくれるライブラリ、qrcodeを使用しました。
Stable Diffusion

Auto-Photoshop-StableDiffusion-Plugin実装でPhotoshop+Stable Diffusionの破壊力を体感

先日、Photoshop betaでジェネレーティブ塗りつぶしの機能が実装され、PhotoshopでもAIによる画像生成ができるようになりました。とは言え、まだまだPhotoshopの画像生成の幅は狭く、画像生成自体の機能はStable Diffusionの方が格段に上です。一方、Photoshopはレイヤー操作や画像処理などでは常に先端を走る商用ソフトウエアです。ここでは、Auto-Photoshop-StableDiffusion-Pluginを使って、PhotoshopとStable Diffusionを完全連携させ、その破壊力を体感してみます。
Stable Diffusion

Stable Diffusion WebUIをPCローカル環境へのセットアップ方法(2023年8月最新版)

進化の早いStable Diffusionですが、少し前のセットアップ方法はすぐに古くなってしまいます。ここではこれからStable Diffusionをご自分のPCにセットアップしたいという方に向けて、2023年6月現在の最新のセットアップ法を紹介したいと思います。
Stable Diffusion

Stable Diffusionなどの生成系AIをするのに最適なおすすめPC4選(2023年6月最新版)

Stable Diffusionなどの生成系AIをするのに最適なPCを紹介します。ローカルに環境構築すると非常に快適に使えます。Stable Diffusionを動かすためには、ある程度の性能のGPUが必要になります。そういったGPU搭載の高性能なPCはオンラインゲームができたり、音楽、画像、動画などのクリエーティブな作業をしたり、仕事にもゲームにも使えるので、一台くらいは持っておいた方が良いと思います。
Stable Diffusion

ウエイトで微調整するLoRAを使ってみる

マイナスのウエイトで話題になっているflat LoRAなどの画質微調整系のLoRAを使ったみました仕上げの部分で使える強力なLoRAモデルです。是非使いこなせるようになりたいものです。
Stable Diffusion

Adobe Photoshop betaのジェネレーティブ塗りつぶしを体験してみる

Adobe Photoshop betaで画像生成の機能が追加された。Stable Diffusionなどの生成系AI技術をウォッチしている身としては使ってみるしかないということで、早速話題の「ジェネレーティブ塗りつぶし」を使ってみました。今回の記事では1からPhotoshopを使って、AIツールを使うところまでをやってみます。Photoshop betaやfireflyを使ってみたい方はご参考ください。
Stable Diffusion

Stable Diffusion WebUIが起動しなかったり、動作がおかしくなった時の対処法

これまでは使えていたStable Diffusion WebUIですが、起動しなくなったり、一部機能が使えなかったり、ドライブやフォルダを移動したりして動作がおかしくなった時の対処法を示します。せっかく入れたモデルや拡張機能などをそのままにできるので、動作がおかしい時はお試しください。
Stable Diffusion

アニメ絵から実写系画像の生成:reference only + tile resample

アニメ絵を高精度の実写系画像に変換してみます。実写系画像では出しにくいコスチュームやシチュエーションもアニメ絵なら出しやすいケースがあります。そういうときは一旦アニメ絵で出したあと、multicontrolnetでreference onlyとtile resampleを併用して、高精度の実写系モデルを生成できます。今回は実写系で大人気のBrav5モデルを使ったアニメ絵を実写画像に変換してみます。
Stable Diffusion

Stable Diffusionを始めるのに最適なGPU搭載おすすめPC(パソコン工房編)

Stable Diffsionを始めるにはローカル環境でするのがおすすめです。ここでは、BTOパソコンメーカーのパソコン工房のPCでStable DiffusionをするのにおすすめなPCをご紹介します。今やStable Diffusionだけではなく、各種AIやゲーム制作や作曲、オンラインゲームなど一台でいろいろなことができる高機能PCを将来への投資のために買っておくのは良いのではないでしょうか。
Stable Diffusion

reference only+mov2movで安定動画生成:Stable Diffusion WebUI ControlNet

mov2movで動画を作成する場合、なかなか安定した動画を作るのが難しいという問題点がありました。動きに合わせて生成される動画が一定にならず、結構カチャカチャした動きが多くなってしまいます。そこで、先日ControlNetに実装されたreference onlyを適用して動画を作成してみました。
Stable Diffusion

reference only Controlで学習なしで好きなキャラを出す:Stable Diffusion ControlNet拡張機能

先日、ControlNetに新しく追加されたReference-onlyを使うと、簡単に好きなキャラクターの画像を生成することができます。これまで、出したいキャラクターを出そうと思ったら、LoRAなどで学習させて、LoRAモデルを作成し、それを使って生成するのが王道でした。今回、LoRAを使わずに好きなキャラクターを生成してみます。
Stable Diffusion

領域を指定してプロンプトを効かすLatent Couple :Stable Diffusion WebUI拡張機能の効果検証

領域を指定してプロンプトを効かすLatent Couple extensionの機能を検証します。Latent Couple extension拡張機能は、例えば、二人の人物を生成したいときに、それぞれの服装や髪型などを指定したいときに効果を発揮する強力なツールです。
音声合成

音声変換の革命RVCで自分の声を自然な女性の声にしてみる:ローカル環境構築

音声変換技術RVCを使って自分(男性)の声を自然な女性の声にしてみたいと思います。今回はRVC変換の環境をWindowsローカルで作って、録音した自分の声の変換したいと思います。今回は公開されている学習済みモデルを使いますので、声のデータを集めたり、学習させたりは必要ありません。手軽に試せるので、ぜひ皆さんもお試しください。
音声合成

おすすめの公開RVCモデル

公開されているRVC用モデルでおすすめのものを紹介します。声主と作者に大感謝です。使用のルールを守って正しく使いましょう。
Stable Diffusion

進化したControlNet1.1のレビュー(Stable Diffusion Web UI)

ControlNetがバージョン1.1になりました。大きく機能が追加されましたので、まずはどんなことができるか全モデルの確認していこうと思います。新しい機能が追加されたり精度があがったり、完成度がどんどん高くなってきています。
スポンサーリンク