Stable Diffusionのライセンスを巡る一連の動きは、多くのクリエイターに混乱と不安をもたらしました。「これまで通り、自分のPC(ローカル環境)で自由に使えなくなるのでは?」そんな声があちこちから聞こえてきます。特に、大きな物議を醸した「クリエイターライセンス」の登場と、その後の素早い撤回は、私たちを大いに揺さぶりました。
結局のところ、何がどう変わり、私たちの創造的な自由は今、本当に守られているのでしょうか。
Stable Diffusionの新しい公式ルールについては、基本を解説したガイドもありますが、この記事は一歩踏み込んだ応用編です。ルールが「なぜ」作られたのか、そして特に多くの人が疑問に思う「自分のPCでの利用(ローカル環境)」にどう影響するのか、その背景にある本当の狙いを徹底的に分析します。プロのデザイナーである私の視点から、新しい「Stability AIコミュニティライセンス」と利用規約(AUP)の「真相」を、どこよりも深く掘り下げていきます。複雑な規約の悩みから解放され、安心して創作活動に時間を使うための知識を、一緒に確認していきましょう。
この記事で分かること📖
📜 ライセンス変更の背景:一度は導入された厳しい規約が、なぜコミュニティの声で撤回されたのか、そのドラマの裏側を時系列で解説します。
💼 仕事で使うときのルール:年間収益100万ドル未満なら無料に。ただし「自己申告」が義務化されたことの意味と、具体的な対応を説明します。
🐅 「見せかけのルール」の真相:なぜ自分のPCでの利用も規約の対象になるのか?その本当の狙いを「責任の転嫁」という法律の観点から解き明かします。
🤔 クリエイター向け実践ガイド:趣味で使う人、仕事で使う人は何をすべきか。ライセンス違反のリスクをできるだけ減らすための具体的なアクションを提案します。
ライセンス変更のドラマ:オープンな理念からビジネスの現実へ

現在のライセンスを正しく理解するためには、まず、ここ数ヶ月で何が起こったのかを振り返る必要があります。それは、誰もが自由に使えるというオープンな理念と、会社として収益を上げなければいけないビジネスの現実が激しくぶつかり合った、ドラマのような展開でした。
創世記:とても寛容だった「CreativeML OpenRAIL-M」ライセンス
2022年8月にStable Diffusionが登場した当初、私たちは「CreativeML OpenRAIL-M」という、非常に寛容なライセンスの恩恵を受けていました。仕事で使うか趣味で使うかを問わず、ほとんど何の制約もなく利用でき、自分なりに改良したモデル(ファインチューニングモデル)の配布も自由でした。このオープンな姿勢が、世界中の開発者やクリエイターを惹きつけ、クリエイターたちが作り出す活発な環境を爆発的に成長させる原動力となったのです。この初期の経験が、私たちの中に「Stable Diffusionは自由なツールだ」という強い信頼と期待を育てました。そして、この期待こそが、後のライセンス変更に対する激しい反発の元になります。
発火点:コミュニティが激怒した「クリエイターライセンス」
しかし、その信頼は2024年6月、Stable Diffusion 3 Medium(SD3 Medium)のリリースと共に導入された「クリエイターライセンス」によって、残念ながら打ち砕かれます。その内容は、これまでの理念を根本から覆すものでした。
- 自分のPCで使うのに月額課金:自分のPCで動かすだけでも、仕事で使うなら月額20ドルが必要になりました。
- 現実的でない生成枚数制限:月に6,000枚という上限は、たった一枚の高品質な画像を得るために何度も試行錯誤するクリエイターの実態を全く理解していないものでした。
- 資産の強制的な破棄:そして最もコミュニティを怒らせたのが、ライセンスの利用をやめる場合、時間と労力をかけて作成した派生モデル(ファインチューンモデルなど)をすべて捨てなければならない、という信じられない決まりでした。
この「後出しジャンケン」のような規約変更に対し、コミュニティの反応は素早く、そしてとても厳しいものでした。「オープンな精神を裏切った」「クリエイターへの裏切りだ」といった非難が殺到。その怒りの象徴となったのが、世界最大級のAIモデル共有サイトであるCivitAIが、ライセンスへの懸念からSD3関連モデルのアップロードを全面的に禁止したことです。これは、コミュニティ全体がStability AIに明確な「ノー」を突きつけた歴史的な瞬間でした。
戦略的な転換:コミュニティの声が勝ち取った「新ライセンス」
コミュニティからの想像を絶する反発に直面したStability AIは、すぐに行動を起こします。2024年7月5日、問題のライセンスを取り下げ、新たに「Stability AIコミュニティライセンス」を導入すると発表したのです。
Stability AI自身も、最初のライセンスが「コミュニティの高い期待に応えられなかった」と公式に非を認めています。この一連の騒動は、オープンな技術を掲げる企業がいかにコミュニティとの信頼関係を大切にすべきか、そしてその価値の源がどこにあるのかを、私たち全員に改めて示す教訓となりました。この対立と和解の物語こそが、現在の新しいルールを理解するための重要な前提知識なのです。
注目ポイント📌
今回の騒動から私たちが学ぶべきは、コミュニティの声が持つ力です。
AIモデルの開発には莫大な費用がかかり、Stability AIも収益化が必要でした。
しかし、その最初の試みが、コミュニティを最も活発に支えている小規模クリエイターに直接的な負担を強いる形だったため、失敗に終わりました。
クリエイターの粘り強いフィードバックが、企業の戦略を正しい方向へと修正させたのです。
コミュニティライセンスの解剖:クリエイターの権利と義務

それでは、私たちの創作活動に直接関わる新しい「Stability AIコミュニティライセンス」の具体的な中身を見ていきましょう。大切なポイントを一つずつ、丁寧に解説します。
仕事での利用は「年間総収益100万ドル」が境界線
多くのクリエイターが最も気にする仕事での利用ルールは、非常にシンプルになりました。
結論から言うと、個人・法人を問わず、年間の総収益が100万米ドル未満であれば、Stable Diffusionの主要モデルを無料で仕事に利用できます。
これは、フリーランスのデザイナーやイラストレーター、小規模なデザイン事務所など、ほとんどのクリエイターにとって嬉しい知らせです。ただし、注意点が一つあります。この条件に当てはまる商用ユーザーは、Stability AIが用意したフォームを通じて、利用状況を自分で申告することが求められています。これはライセンスを守る上での義務なので、忘れずに行いましょう。
年間の総収益が100万ドルを超える大企業の場合は、別途有償の「エンタープライズライセンス」を契約する必要があります。これは、個人や中小企業の自由な活動を保障しつつ、大企業から収益を得るという、オープンなソフトウェアビジネスでよく見られる賢い方法と言えるでしょう。
ファインチューンモデルの作成・配布は再び自由に
以前のライセンスで最も批判された「派生モデルの破棄義務」は、完全になくなりました。新しいコミュニティライセンスでは、ファインチューニングモデルやチェックポイント、LoRAといった派生モデルの作成、利用、配布がはっきりと許可されています。
また、作成した派生モデルの所有権は、ユーザー自身にあると定められています(ただし、元となる基盤モデルの所有権はStability AIが持っています)。これにより、私たちは再び安心して、独自のモデル開発に時間と情熱を注ぐことができるようになりました。これはコミュニティの創造性を解き放つ、決定的な改善点です。
生成した画像の所有権はユーザー(クリエイター)のもの
ライセンスでは、私たちが生成した画像や音声(アウトプット)の所有権についても、はっきりと示されています。Stability AIとの関係においては、生成されたアウトプットはユーザーが所有します。
これは、私たちが自分の作品を仕事を含めて自由に活用できることを、法的に保証する非常に重要な決まりです。ただし、一つだけ心に留めておくべきことがあります。この所有権はあくまでStability AIとの間での話です。AIによって完全に自動生成されたコンテンツの著作権が、第三者に対してどこまで法的に保護されるかについては、米国をはじめ多くの国でまだ法的な議論が続いており、確立された見解はありません。つまり、自分の生成物に対してStability AIに所有権は主張できますが、他人が無断で利用したことに対して著作権侵害を主張できるかは、各国の司法の判断に委ねられているという複雑な状況です。
注意点:「競合する基盤モデル」の開発は禁止
新しいライセンスは非常に寛容ですが、Stability AIのビジネスを守るための重要な制限も設けられています。それは、「Stable Diffusionのモデルや生成物を使って、競合する新しい基盤モデル(foundational model)を開発してはならない」というルールです。
これは、他のAI開発企業が、Stable Diffusionやその膨大な生成画像を「無料の学習データ」として利用し、新たなライバル製品を作るのを防ぐための、自分たちを守るための防衛線です。
私たちクリエイターにとって幸いなことに、Stability AIは公式FAQで、LoRAやファインチューニングモデルは、この「競合する基盤モデル」には当たらないとはっきり言っています。これにより、コミュニティの主な活動であるモデルのカスタマイズは、これまで通り安心して続けられます。
どのモデルが対象?古いバージョンは?
このコミュニティライセンスが適用されるのは、Stability AIが公式に指定した「コアモデル」のリストに含まれるモデルのみです。具体的には、Stable Diffusion 3.5 SuiteやSDXL Turboなどがこれに当てはまります。
一方で、Stable Diffusion 1.5のような古いバージョンは、多くの場合、引き続きオリジナルの非常に寛容なライセンス(CreativeML OpenRAIL-Mなど)の下で管理されています。したがって、自分が使っているモデルのバージョンがどのライセンスの対象なのかを、個別に確認する習慣をつけることが大切です。
注目ポイント📌
📝 新しいコミュニティライセンスの要点
✅ 商用利用:年間総収益100万ドル未満なら無料(自己申告は必要)。
✅ 派生モデル:作成・配布・所有が自由に。破棄義務もなし。
✅ 生成物:所有権はユーザー(クリエイター)に帰属。ただし第三者への著作権主張は法的な議論の最中。
❌ 禁止事項:競合する大規模AIモデルの開発に利用すること。
🎯 適用範囲:SD3.5などの「コアモデル」が対象。SD1.5などは旧ライセンスのままの可能性があります。
核心:自分のPCでの利用は「見せかけのルール」か?利用規約(AUP)の本当の狙い

ここからがこの記事で一番大切な部分です。多くのユーザーが最も知りたい「自分のPC(ローカル環境)での利用は、新しい規約で規制されるのか?」という問いに、正面から向き合っていきましょう。鍵を握るのは、ライセンスとは別に定められた「Acceptable Use Policy(AUP:利用規約)」です。
AUP(利用規約)で何が禁止されるのか?
2025年7月31日に発効する新しいAUPで、最も大きな変更点は、コンテンツに関する規制が強くなったことです。具体的には、「性交、性行為、または性的暴力に関連するコンテンツ」の生成がはっきりと禁止されました。
これは、世界的に問題となっているディープフェイクや、同意のない性的な画像への対策として、MidjourneyやDALL-Eといった他の主要なAIサービスと足並みを揃える動きです。これまでStable Diffusionが持っていた「表現の自由度の高さ」は、このAUPの改定によって、社会的な責任を果たすために一定の制約を受けることになったと言えます。
その他、AUPで禁止されているヘイトスピーチや偽情報などの詳しいリストについては、別の解説記事で幅広く確認できます。

【結論】自分のPCでの利用も「契約上は」規制対象
では、これらの禁止事項は、インターネットに接続されていない、完全にプライベートなローカル環境での利用にも適用されるのでしょうか?
Stability AIの公式見解は、残念ながら「Yes」です。AUPの条文には、その適用範囲が「Stability AIのコードやデータを自分のサーバーなどで動かす場合」を含む、すべての利用形態に及ぶとはっきり書かれています。
これは法的な契約の話です。つまり、私たちがソフトウェアをダウンロードしてPCにインストールし、使用した時点で、このAUPのすべての決まりに同意したと見なされる、ということです。契約上、ローカル環境での利用もAUPの制約の下に置かれます。
なぜ「見せかけのルール」なのか?技術的な監視と法的な狙い
「ローカルでの利用も規制対象」と聞いて、多くの人が不安に思ったかもしれません。しかし、ここからが重要なポイントです。契約上のルールと、それが実際にどう実行されるかは、全く別の話なのです。
まず技術的な観点から見ると、Stability AIが私たちのプライベートなPCの中で、どのような画像を生成しているかを監視したり、見つけ出したり、ブロックしたりする手段は、現時点では存在しません。オフライン環境であればなおさらです。したがって、ローカル環境でAUPに違反したとしても、それをStability AIが直接的に見つけて罰することは、技術的にほぼ不可能です。
では、なぜわざわざ自分のPCでの利用まで規制対象に含めるのでしょうか。その本当の狙いは、ユーザーの行動を監視することではありません。
🛡️ 大切なキーワード:「責任の転嫁」
この規約が目指しているのは、「責任の転嫁」という、会社を守るための法的な戦略にあります。もし、あるユーザーがローカル環境でAUPに違反する違法なコンテンツを生成し、それをインターネット上で配布・公開して社会的な問題になったとします。その時、Stability AIはこのAUPを盾に、「当社は規約によってそのような利用を明確に禁止していました。ユーザーの違反行為は当社の責任ではありません」と主張することができます。これにより、企業としての法的な責任を避け、すべてのリスクをユーザー個人に負わせるのです。
つまり、ローカル環境にAUPを適用するという決まりは、実質的には「見せかけのルール」のようなものです。そのルールが直接私たちに噛みついてくることはありません。しかし、その存在自体が、「万が一問題が起きても、すべての法的なリスクはあなた(ユーザー)一人にありますよ」と宣言する、非常に強力な法的な盾として機能しているのです。
注目ポイント📌
⚖️ 法律の観点:契約上、ローカル利用もAUPの規制対象です。
💻 技術の観点:Stability AIにローカル環境を監視する手段はありません。
🛡️ 本当の狙い:ユーザーが問題を起こした際に、Stability AIが責任を避けるための「法的な盾」です。
⚠️ 一番大切なこと:技術的な自由はユーザーに与えられていますが、それに伴う倫理的・法的な責任はすべてユーザーが負う、という新しいルールが確立されました。
実践ハンドブック:クリエイターのためのリスク管理術

これまでの分析を踏まえて、私たちクリエイターが具体的にどう行動すればよいのかを、よくある質問に答えるQ&A形式でまとめてみました。
法的リスクを避けるためのおすすめの習慣
最後に、安心して創作活動を続けるために、私が実践しているリスク管理の方法を共有します。
- 使用モデルのバージョンを記録する:プロジェクトごとに、どのバージョンのStable Diffusionを使ったかをメモしておきましょう。モデルによって適用されるライセンスが違う可能性があるため、この記録は後々のトラブル回避に役立ちます。
- 環境を使い分ける:重要な仕事のプロジェクトでは、はっきりと商用ライセンスが認められているモデルのみを使い、AUPのグレーゾーンに触れる可能性のあるコンテンツの生成は避けるなど、リスク管理を徹底するのも一つの手です。
- 配布・公開するものは慎重にチェックする:最大のリスクは、画像を生成することそのものではなく、それを共有・公開・配布することから生まれます。クライアントに納品するものや、SNSで公開する画像は、AUPや著作権法の観点から問題がないか、常に慎重に確認する癖をつけましょう。
- 迷ったら専門家に相談する:大規模な商用プロジェクトや、ライセンスの解釈に少しでも不安がある場合は、知的財産権に詳しい弁護士などの専門家に相談することが、最終的に自分を守る唯一確実な方法です。
注目ポイント📌
✍️ クリエイターの自己防衛策
🏠 個人利用:配布・公開をしなければ、直接的なリスクは低い。
🏢 商用利用:年間収益100万ドル未満なら無料。自己申告と知的財産への注意を忘れずに。
📜 ライセンス:違反が公に発覚しない限り、いきなり取り消される可能性は低い。
✅ 実践:モデルバージョンの記録、公開前のアウトプットの入念なチェック、専門家への相談を習慣にしましょう。
競合比較:なぜStability AIは「自由と責任」の道を選ぶのか?

Stability AIがなぜこのような複雑なライセンス戦略をとっているのかを理解するために、主要なライバルであるMidjourneyとOpenAIのDALL-Eと比較してみましょう。この比較から、「なぜStability AIだけが自分のPCで使うという選択肢を残しているのか」という問いの答えが見えてきます。
それは、オープンな戦略がもたらす「技術革新の自由」と、それに伴う「法的なリスク」との間のバランスを、AUPという形で解決しようとする巧みな戦略なのです。
特徴 | Stability AI (コミュニティライセンス) | Midjourney (有料プラン) | OpenAI (DALL-E API) |
---|---|---|---|
モデルへのアクセス | オープン、自分のPCで実行可能 | クローズド、クラウドサービスのみ | クローズド、クラウドサービスのみ |
生成物の所有権 | ユーザーが所有(AUP遵守が条件) | ユーザーが所有(但しMidjourneyにも広範な利用を許諾) | ユーザーが所有(ポリシー遵守が条件) |
商用利用権 | 年間収益100万ドル未満なら無料 | 全ての有料会員に許可 | 許可 |
ファインチューニング | 明確に許可・推奨 | 不可(クローズド) | 不可(クローズド) |
コンテンツ制限 | AUPで禁止(ローカル利用も対象) | 厳しく禁止(サービス側で強制) | 厳しく禁止(サービス側で強制) |
制限の実行方法 | クラウドでは高、ローカルでは低(責任転嫁) | 絶対的(サービス側で強制) | 絶対的(サービス側で強制) |
MidjourneyとDALL-Eは、完全に管理された「壁に囲まれた庭」のようなモデルです。ユーザーは自分のPCでモデルを動かす自由を持たない代わりに、コンテンツの制限はサービス側が自動的に行ってくれるため、法的な心配をあまりせずに創作に集中できます。
一方でStability AIは、ローカル利用という「最高の自由度」をクリエイターに提供します。これは開発者コミュニティを活性化させ、技術の進歩を加速させるオープン戦略の核です。しかし、それは企業側がコンテンツを直接管理できないリスクを伴います。そこで、AUPによって法的な「責任」だけをユーザーに移すことで、この「自由」と「リスク」の悩ましい問題を解決しようとしているのです。私たちはこの仕組みを理解した上で、自身の目的やリスクをどこまで受け入れられるかに合わせて、最適なツールを選択する必要があります。
注目ポイント📌
🎨 Midjourney/DALL-E:「安全な箱庭」。サービス側が厳しく管理する代わりに、ユーザーは法律のことをあまり心配せずに創作に集中できます。自由度は低いです。
🛠️ Stable Diffusion:「高性能な工房」。自由度とカスタマイズ性は最高ですが、工房で何を作るか、その道具をどう使うかの全責任はユーザー自身が負います。
まとめ:私たちが直面する「新たな現実」

さて、長い解説になりましたが、最初の問いに戻りましょう。「自分のPCでの利用は規制対象か?」
その答えは、白黒はっきりつけられるものではなく、「法律上はYES、現実的にはNOに近い」という、少し複雑なものになります。
- 法律上は「YES」:私たちがソフトウェアを使った時点で、AUPという契約に同意したことになり、自分のPCでの利用も法的に規制されます。
- 現実的には「NO」:Stability AIが私たちのPCを監視して、AUP違反を直接取り締まる技術的な手段はありません。
この規制のは、ユーザーの行動を監視するためのものではなく、会社自身を社会的な批判や法的な問題から守るための防衛策である、ということです。この仕組みは、テクノロジーの倫理的・法的な利用に関するすべての責任を、企業から私たちクリエイターへと完全に移すものに他なりません。
この「自由と責任のバランス」こそが、これからの生成AI時代を生き抜く新たな常識です。この大切なポイントを理解することは、ライセンスの不安から解放され、私たちが本来行うべき創造的な活動に時間とエネルギーを集中させるための第一歩なのです。
【免責事項】 本記事で解説しているStability AIのライセンスおよび利用規約(AUP)に関する情報は、AI技術の進化や企業の運営方針により、予告なく変更される可能性があります。また、法的な解釈がまだ定まっていない領域を多く含みます。この記事は、プロのデザイナーである筆者がクリエイターの視点から規約を分析し、その解釈や考察を共有する目的で執筆したものです。したがって、掲載された情報が最新でなかったり、あくまで一つの解釈に過ぎなかったりする場合がございます。本記事は法的な助言を提供するものではなく、その内容の完全性や正確性を保証するものではありません。本記事の情報を利用したことによって生じたいかなる損害についても、当サイトは一切の責任を負いかねますので、あらかじめご了承ください。ビジネスでの利用や法的な判断が必要な場合は、必ずStability AIの公式ドキュメント(一次情報源)を直接ご確認の上、必要に応じて弁護士などの専門家にご相談ください。
📚 参考ソース
- Stability AI ライセンス(Stability AI License)
- Core Models — Stability AI
- License Update — Stability AI(Community License の更新)
- Announcing the Open Release of Stable Diffusion 3 Medium, Our Most Sophisticated Image Generation Model to Date
- Stability AI Announcement
- Stable Diffusion Public Release


コメント