この記事は、「AI Novel Studio」で必要なAPIの設定について触れています。
このアプリでは、小説を読み込んでビジュアルノベル化する際にAIを使って
- シーンの解析
- 挿絵生成用のプロンプト作成
- 挿絵の生成
などを行います。
そのため、最初にAIの接続設定(API設定)が必要になります。
「APIって何?」
「AIの設定って難しそう…」
そんな方でも大丈夫です。
この記事では、AIに詳しくない方でも設定できるように、手順を追って解説します。
今回は、OllamaというローカルAI実行ツールを使う方法を説明します。
Ollamaは無料で使えるので、シーン解析やプロンプト生成が使い放題となります。
ただしOllamaではまだ画像生成ができません。ここではテキスト生成APIの設定についてのみ触れます。
やることはこの5ステップ
設定は次の流れです。
- Ollamaをインストール
- AIモデルをダウンロード
- CORS設定でOllamaを起動
- アプリの設定画面にモデル名を入力
- 接続テストを押す
この5ステップでAIが使えるようになります。
Ollamaとは?
Ollamaは、AIモデルを自分のパソコンで動かすためのツールです。
普通のAIサービス(ChatGPTなど)はインターネット上のサーバーを使いますが、
Ollamaを使うと
- 自分のPCでAIを実行できる(質問したり要約お願いしたりもOK)
- テキストを外部に送らず処理できる
- APIキーなしで試せる
というメリットがあります。
AI本体(モデル)をダウンロードして、
それを管理・実行するのがOllamaの役割です。
設定画面に出てくる言葉を簡単に説明します。
API アプリがAIに「これをやって」とお願いする窓口。
モデル 実際に文章を読んだり考えたりするAI本体。
ベースURL AIにアクセスするための「住所」。
CORS ブラウザからAIサーバーへアクセスするための許可設定。
Ollamaをセットアップする手順
① Ollamaをインストール
まずOllama本体をインストールします。
公式サイトからダウンロードしてください。


インストールするときは、
ターミナル(Mac)やコマンドプロンプト(Windows)を開いて、画面に表示されているコマンドを入力(コピーボタンあります)して貼り付けるか、
またはdmgやexeファイルを実行してインストールできます。
どちらもかんたんですが、慣れていない人は後者のほうがよいかもしれません。
インストール後、ターミナルまたはコマンドプロンプトで次を入力します。
ollama --version
バージョンが表示されれば成功です。
② AIモデルをダウンロード
次にAIモデルをダウンロードします。
今回は、「qwen2.5:7b」というモデルを使っています。
ターミナル(やコマンドプロンプト)で次を実行します。
ollama pull qwen2.5:7b
ollama pullのあとに使いたいモデルを指定します。
これでAI本体がPCにダウンロードされます。
※注意:初回は数GBダウンロードされるので少し時間がかかります。qwen2.5:7bは4GBくらいです。
モデルとは?
モデルとは、AIの頭脳にあたるものです。
例えば
| モデル | 特徴 |
|---|---|
| qwen2.5:7b | 軽量で扱いやすい |
| qwen2.5:14b | 少し高性能 |
| qwen2.5:32b | 高性能だが重い |
モデルによって、日本語が自然とかThinkingモードがあるとか、得意不得意があります。

③ CORS設定でOllamaを起動する
次に、ブラウザからAIへアクセスできるように設定します。
ターミナルで次を実行してください。
OLLAMA_ORIGINS=* ollama serve
これは
- ブラウザからのアクセスを許可
- Ollamaサーバーを起動
するコマンドです。
ちなみに、普通にOllamaを使いたいときはアプリを起動すればOKです。
質問をすると、ChatGPTみたいに回答をその場で生成してくれます(賢さはモデルによります)。
エラーが出る場合
もし次のエラーが出た場合
bind: address already in use
これはすでにOllamaが起動しているという意味です。
その場合は一度Ollamaを停止してから再起動します。
MacではOllamaが起動していると画面右上に表示されます。クリックして終了を選んでください。
④ アプリのAPI設定画面を入力
ここまできたら、AIl Novel Studioアプリの設定画面で次のように入力します。
| プロバイダ | Ollama(ローカル) |
| ベースURL | デフォルトのままでOK(http://localhost:11434/v1) |
| APIキー | 空欄でOK。OllamaはAPIキーが必要ありません |
| モデル | qwen2.5:7b ダウンロードしたモデル名と完全一致してください |
⑤ 接続テスト

最後に接続テストボタンを押します。
成功すると接続成功しましたと表示されます。
これでAIが使えるようになります。
Ollama / Qwenを使うときの注意
OllamaとQwenはとても便利ですが、いくつか注意点があります。
PCの性能に依存する
ローカルAIはPCの性能に影響されます。
例えば
- メモリ不足
- CPU負荷
- ノートPCだと遅い
などが起きることがあります。
動かないときは軽いモデル(qwen2.5:3bとか)に変更してください。
モデルのライセンスについて
APIモデルには利用条件があります。
商用利用や配布を考える場合はモデルのライセンスを確認するのが安全です。
Qwen 2.5はアリババ社の子会社、アリババクラウドが発表した大規模言語モデル(LLM)です。
ライセンスはApache license2.0で、基本的に商用利用や私的利用などが可能です。
OpenAI APIを使うこともできます
このアプリでは、Ollamaだけでなく、OpenAI APIを指定して使うことも可能です。
OpenAI APIの特徴
| Ollama | OpenAI API | |
|---|---|---|
| 実行場所 | 自分のPC | クラウド |
| 初期設定 | 少し必要 | 簡単 |
| 料金 | 基本無料 | 使用量課金 |
| PC負荷 | 高い | なし |
| データ送信 | ローカル | 外部送信 |
OpenAI APIを使う場合は
- OpenAIアカウント作成
- APIキー発行
- 設定画面に入力
するだけで利用できます。
アプリ(Ollama)をインストールせずに使えるので手軽です。
ただしChatGPTに課金していても、APIを利用するには別途チャージ(最低5ドル)が必要になります。
また入力したAPIキーはブラウザ上で使用します。第三者に公開したり共有したりしないよう注意してください。
最短セットアップまとめ
急ぐ場合はこの2行だけです。
- ollama pull qwen2.5:7b
- OLLAMA_ORIGINS=* ollama serve
その後、設定画面で
モデル qwen2.5:7b
を入力して接続テスト。
画像を生成するには

AI Novel Studioでは、画像を生成するためのプロンプトを作ったあと、
「AI生成」ボタンを押して画像を生成することもできます。
小説に限らず、シナリオに沿って動画用の画像を生成するといった用途にも使えるのが便利です。
しかし、Ollamaではまだ画像を生成できません。この機能を使うときは別のAPIキーを設定する必要があります。
今のところ、
- OpenAI(DALL.E)
- Google Gemini
- StabilityAI
- カスタム(A1111/ComfyUI)←ローカル用
に対応していますが、DALL.Eとかはコストがけっこうかかるのであまりおすすめできません。
Google GeminiならGoogle AI StudioでAPIキーを発行できます。
無料枠がどれくらいあるかわからないんですけど、
Googleは有料プランを登録していれば、チャージ不要です。
自動で有料枠になってAPIを利用できます。
少し手間はかかりますが、別のところで生成した画像をアップロードして貼り付けることも可能です。
まとめ
このアプリでAIを使うための流れは次の通りです。
1 Ollamaをインストール
2 AIモデルをダウンロード
3 CORS設定で起動
4 モデル名を入力
5 接続テスト
最初は難しそうに見えますが、
一度設定してしまえば簡単に使えるようになります。
最後までお読みいただきありがとうございます。
ビジュアル小説を作ってみたい方はこちらへどうぞ!
AI Novel Studio

コメント
コメント一覧 (1件)
[…] 無料のOllamaを使ってシーン解析や画像プロンプトを生成する | TONKATIHEAD この記事は、「Visual Novel […]