★ GitHubスター 6,000+
Open-LLM-VTuber
完全オフライン動作可能なAI VTuberフレームワーク。Live2D対応・モジュラー設計・日本語ドキュメント完備。コスト0円でのローカル完結運用が可能。
概要
Open-LLM-VTuber(Open-LLM-VTuber/Open-LLM-VTuber)は、完全にオフラインでも動作するAI VTuberフレームワークです。Live2Dアバターを持ち、テキスト・音声で会話し、OBS経由で配信画面に組み込むことができます。
最大の特徴は「完全無料・完全オフライン」での運用が可能な点です。NVIDIA・AMD・Apple Siliconに対応したローカルLLM(Ollama等)と組み合わせることで、APIコストゼロのシステムが構築できます。Raspberry Piでの動作報告もあり、低スペック環境への対応も実績があります。
Python製のモジュラー設計で、LLM・STT・TTS・アバターシステムを独立したモジュールとして組み合わせ可能。日本語READMEが提供されており、日本語環境での導入がスムーズです。Docker対応により、環境構築の手間も軽減できます。
特徴
完全オフライン動作
Ollamaなどのローカルモデル + ローカルSTT/TTSを組み合わせることで、インターネット接続なしの完全ローカル運用が可能。コスト0円を実現。
クロスプラットフォーム GPU 対応
NVIDIA CUDA・AMD ROCm・Apple Silicon(Metal)の3プラットフォームすべてに対応。持っているPCのGPUをそのまま活用できる。
Docker対応
Docker Composeで環境構築が完結。Pythonの依存関係の衝突やバージョン問題を回避できる。本番環境にも向いている。
デスクトップペットモード
配信だけでなく、デスクトップ上に常駐するAIキャラクターとして利用可能。作業中に話しかけると応答する「デスクトップペット」として動作する。
日本語ドキュメント完備
README.JP.mdが提供されており、日本語での導入手順・設定方法が確認できる。英語ドキュメントが苦手な方でも安心。
モジュラー設計で柔軟な構成
LLM・音声認識(STT)・音声合成(TTS)・アバターシステムをそれぞれ独立して選択・変更できる。好みのコンポーネントの組み合わせが自由。
低スペック環境でも動作実績
Raspberry Piでの動作報告があるなど、ハイスペックPCがなくても動作可能。クラウドAPIを使えばGPUなしでも利用できる。
Live2Dアバター対応
Live2Dアバターに対応し、感情表現・口パクなどのアニメーションが可能。既存のLive2Dモデルを流用できる。
メリット・デメリット
メリット
- ローカルLLM使用時は月額コスト0円の完全無料運用が可能
- 完全オフライン動作でプライバシーを確保できる
- 日本語READMEがあり日本語環境での導入がスムーズ
- NVIDIA・AMD・Apple Siliconの全GPU対応
- Docker対応で環境構築が安定・再現しやすい
- モジュラー設計でコンポーネントの入れ替えが自由
- デスクトップペットモードで配信以外にも活用できる
デメリット
- 配信プラットフォームへの直接統合はなく、OBS経由での合成が必要
- v1.0.0以降で破壊的変更があり、旧バージョンの設定は移行が必要
- ゲーム連携機能(Minecraft等)はなし
- Discord・Telegramなどのマルチプラットフォーム展開には非対応
- コミュニティ規模はProject AIRIより小さい(スター6,000+)
システム要件
| 項目 | 要件・推奨値 |
|---|---|
| GPU | クラウドAPI使用時は不要。ローカルLLM使用時はVRAM 6〜8GB推奨(7Bモデルの場合)。Raspberry Piでの動作報告あり(量子化モデル使用)。 |
| OS | Windows 10/11・macOS 12以上・Linux(Ubuntu 20.04以上確認済み)。クロスプラットフォーム対応が最も充実している。 |
| メモリ(RAM) | クラウドAPI時: 8GB以上推奨。ローカルLLM時: 16GB以上推奨。量子化モデル(GGUF)使用時は8GBでも動作報告あり。 |
| GPU 種別 | NVIDIA(CUDA対応)・AMD(ROCm対応)・Apple Silicon(Metal対応)の3プラットフォームすべてに対応。 |
| Python | Python 3.10以上が必要。pip でパッケージインストール。Dockerを使う場合は不要。 |
| ストレージ | 基本インストール: 約1GB。ローカルLLMモデル追加時: 4〜40GB追加(モデルサイズによる)。 |
| Docker(任意) | Docker Desktop 4.0以上またはDocker Engine + Compose。使用する場合はPython環境構築が不要。 |
料金・コスト
完全無料
0円
/ 月(ローカル完結)
OllamaでローカルLLM + ローカルSTT/TTSを組み合わせ。電気代のみ。GPU付きPCが必要。
軽量API運用
~¥600
/ 月($4程度)
Gemini Flash等の低コストAPIを使用。週2〜3回配信であれば十分なコスト感。
本格API運用
~¥7,000
/ 月($50程度)
GPT-4oやClaude Sonnet等の高品質APIで毎日配信。コメント返答を積極的に行う場合。
コスト優位点: ローカルLLM(Ollama + Llama / Gemma等)を使えばAPIコストが完全に0円になります。GPU付きPCを既に持っている場合は、最もコスト効率の高い選択肢です。本ツール自体は無料。
導入手順
1
リポジトリのクローン
GitHubからソースコードを取得します。
git clone https://github.com/Open-LLM-VTuber/Open-LLM-VTuber.git
cd Open-LLM-VTuber
2
依存パッケージのインストール
Python仮想環境を作成してパッケージをインストールします。Dockerを使う場合はこの手順をスキップできます。
# 仮想環境の作成(推奨)
python -m venv venv
source venv/bin/activate # Windowsは: venv\Scripts\activate
# パッケージインストール
pip install -r requirements.txt
2-alt
Docker を使う場合(代替手順)
Dockerを使う場合はPython環境構築が不要です。
# Docker Composeで起動(GPU有りの場合)
docker compose up -d
# GPU無しの場合
docker compose -f docker-compose.cpu.yml up -d
3
設定ファイルの編集
conf.yamlを編集してLLMプロバイダ・STT・TTSの設定を行います。日本語READMEに詳しい説明があります。
cp conf.default.yaml conf.yaml
# conf.yamlをエディタで開いて設定
# 例: クラウドAPIを使う場合
# llm:
# provider: openai
# api_key: sk-xxxxx
# model: gpt-4o-mini
#
# ローカルOllamaを使う場合
# llm:
# provider: ollama
# base_url: http://localhost:11434
# model: llama3.2
4
Live2Dアバターの配置(任意)
使用したいLive2Dモデルを所定のディレクトリに配置します。
# Live2Dモデルを配置するディレクトリ
mkdir -p assets/live2d/your-model
# モデルファイル(.model3.json等)を配置
cp -r /path/to/your/live2d/model/* assets/live2d/your-model/
# conf.yamlでモデルを指定
# avatar:
# type: live2d
# model_path: assets/live2d/your-model/model.model3.json
5
起動して動作確認
メインスクリプトを実行して動作確認します。ブラウザが自動的に開きます。
python main.py
# → ブラウザが自動的に開く(または http://localhost:12393)
# マイクに向かって話しかけてみてください
6
OBSへの組み込み(配信用)
OBSのブラウザソースとしてOpen-LLM-VTuberの画面を追加します。
# OBSのブラウザソースに追加
# URL: http://localhost:12393
# 背景透過: チェックON(クロマキー合成)
# 幅・高さ: 配信解像度に合わせて設定
# ↑ 設定後、アバターが配信画面に重なって表示される
運営イメージ
どんな配信スタイルに向いているか: 雑談配信・勉強配信・作業配信との相性が良いです。デスクトップに常駐するAIキャラとして、作業BGMのような存在感も発揮します。コスト重視でローカル完結したい個人クリエイターに最適です。
起動時
デスクトップ常駐 — PCを起動するとAIキャラがデスクトップに表示される。配信していなくても話しかけると音声で返答。
配信前
配信準備 — OBSのブラウザソースにAIキャラのURLを追加済み。配信開始ボタンを押すだけで画面にAIキャラが合成される。
配信中
視聴者との会話 — YouTubeチャットのコメントをAIが読み取り、Live2Dアバターが口パクしながら音声で返答。自然な会話が展開される。
深夜
ローカル処理 — ローカルLLMを使用しているためAPIコストはゼロ。深夜の長時間配信も追加費用なし。電気代のみ。
配信後
引き続きデスクトップで活動 — 配信が終わってもデスクトップペットとして稼働継続。一人作業のお供になる。
こんな人におすすめ / おすすめしない人
おすすめの人
- 月額コストをできる限り抑えたい・0円で始めたい人
- プライバシー重視でオフライン動作にこだわる人
- 日本語環境で導入したい・英語ドキュメントが苦手な人
- 雑談配信・作業配信・勉強配信など穏やかな配信スタイルの人
- NVIDIA・AMD・Apple Silicon のGPUを持っておりローカルLLMを活用したい人
- Dockerを使って環境を安定させたい人
おすすめしない人
- Minecraft・Factorioなどゲーム連携機能が欲しい人
- YouTube以外にDiscord・Telegramでもマルチプラットフォーム展開したい人
- モバイル(iOS等)からもアクセスしたい人
- 大きなコミュニティのサポートを活用したい人(AIRIのほうが規模が大きい)