跳到主要内容

APIコストの最適化 / API Cost Optimization

💸 LLM破産を防ぐ「モデル階層化戦略」

AIに自律性を与え、一日に何十回もコードやテキストを生成させると、API利用料金(プロンプトや出力ごとの課金)が想像以上に膨れ上がることがあります。「気がついたら月に数万円の請求が…」といった事態を避けるためには、賢いモデルの使い分けが不可欠です。

📊 レイヤー分けという解決策

OpenClawでは、タスクの難易度に応じて、安価(または無料)のモデルと、高額で賢いモデルを「切り替えて運用」することを強く推奨します。

graph TD;
A[毎分の監視 / 簡単な要約 / メールの分類] -- "無料/最安 (Tier 1)" --> B(Cerebras Llama3 / Ollama ローカルモデル);
C[複雑なコードの生成 / 高度な論理推論] -- "高品質/有料 (Tier 2)" --> D(Gemini 1.5 Pro / GPT-4o / Claude 3.5 Sonnet);
B -. "手に負えない場合のみパス" .-> D;

第1層: 無料・ローカルモデル(普段づかい用)

  • 定期的なRSSの要約、死活監視、スケジュールのリマインドなど、**「何度も実行されるが単純なタスク」**は、ここでの処理を徹底します。
  • 例: 驚異的な処理速度と広大な無料枠を持つ cerebras/llama3.1-8b、またはオフラインで完全無料稼働する ollama (Gemma / Llama) などのローカルモデル。

第2層: 高額・推論モデル(奥の手)

  • プロジェクトの根幹に関わるコーディング、繊細な文章の執筆、難解なエラーの解決などで人間が特別に指示を出したときのみ使用します。
  • 例: gemini-3-flash, gpt-4o, claude-3-5-sonnet

💡 運用のアドバイス
デフォルト起動時のモデルは常に「無料・最安モデル」にしておき、AIに対するメッセージの中で、「このプログラムの開発はかなり複雑なので、Gemini 1.5 Proに一度切り替えてからコードを書いてね」と指示を出す運用がもっとも安全です。