メインコンテンツまでスキップ

セキュリティの強化 / Security Hardening

🔐 AIの暴走と情報漏えいから身を守る

AIエージェントに「あなたの代役」としてファイルシステムやインターネットへのアクセス権を与えると、非常に強力な恩恵とともに深刻なセキュリティリスクが生じます。

このガイドでは、ホストシステム(あなたのパソコンやサーバー)を安全に保つための「鉄の掟(ベストプラクティス)」を詳述します。

1. 秘密鍵(APIキー)は絶対に直書きしない

AIに対する指示書(Markdownファイル)や、実行スクリプト内に sk-123456... のようなAPIキーを直書き(ハードコード)してはいけません。 AIが要約を作った際、誤ってそのキーを含んだままGitHubやSNSにアップロードしてしまう事故(漏洩)が起こります。

  • 正解: 必ず auth-profiles.json に設定するか、環境変数マネージャー(1Password CLIなど)を通じて暗号化されたシークレットを渡してください。

2. コマンド実行の「承認システム」を無効化しない

OpenClawには、AIがターミナルでコマンドを叩こうとしたとき、実行前に人間に 「これを実行してもいいですか? (Y/n)」 とストップをかける機能(exec-approvals.json)が備わっています。

exec-approvals.json
{
"commands": {
"ask": "on",
"whitelist": ["ls", "cat", "echo"]
}
}
  • あなたの生PC(Macなど)で動かす場合、絶対に ask: "on"(確認する)を維持してください。
  • AIのハルシネーション(幻覚)によって、突如 rm -rf / のようなファイルをすべて消し飛ばすコマンドが生成されるリスクはゼロではありません。
  • 例外: 完全に隔離されていて「壊れてもいい」DockerコンテナやVM環境(開発用サンドボックス)でのみ、ask: "off"(しつもん不要・完全自律実行)を自己責任で許可します。

3. Docker(コンテナ)での隔離を検討する

もしAIに「Pythonプログラムを書いて、それを実行してみて」というような高度な仕事(コーディング補助)をさせるなら、ホスト環境に直に触らせず、Dockerコンテナの中で活動させるのが最も安全(ベスト)です。