メインコンテンツまでスキップ

ローカルLLM「Ollama」セットアップガイド / Ollama Local LLM Setup

🏠 完全無料・完全オフラインでAIを動かす

「APIキーも不要、インターネット接続も不要、費用もゼロ」——そんな夢のような環境が、Ollamaを使えば実現できます。あなたのPCのGPU(またはCPU)でLLMを直接動かすための方法を解説します。

Ollamaが最適なケース

  • 機密データ(顧客情報、社内文書)を一切外部サーバーに送りたくない
  • API利用料金を完全にゼロにしたい。
  • インターネットのない環境(飛行機内、オフラインサーバー)でもAIを使いたい。

モデルの比較

モデルサイズ必要VRAM得意なこと
llama3.2:3b約2GB4GB〜軽量な要約・分類
llama3.1:8b約5GB8GB〜汎用タスク全般
gemma2:9b約5.5GB8GB〜日本語の理解に強い
codellama:13b約8GB16GB〜プログラミング支援

Step 1: Ollamaのインストール

Mac(推奨)

brew install ollama

その他(Linux / Windows)

https://ollama.com/download から公式インストーラーをダウンロードしてください。

Step 2: モデルのダウンロード

最初の起動時に、使いたいモデルをダウンロードします(一度ダウンロードすれば以降はオフラインで使用可能)。

# Ollamaサービスの起動
ollama serve

# 別のターミナルで、モデルをダウンロード
ollama pull llama3.1:8b

ダウンロード完了後、動作テスト:

ollama run llama3.1:8b "こんにちは、自己紹介をしてください。"

Step 3: OpenClawと接続する

OpenClawの設定で、ローカルのOllamaをLLMプロバイダーとして指定します。

agents/main/agent/auth-profiles.json
{
"api_keys": {},
"providers": {
"default": {
"type": "ollama",
"base_url": "http://localhost:11434",
"model": "llama3.1:8b"
}
}
}
💡 ハイブリッド運用のススメ

普段の軽作業はOllama(無料・オフライン)で、複雑な推論だけCerebras(無料・高速クラウド)に切り替えるハイブリッド構成が最もコスト効率が良い運用です。