よくある質問 / General FAQ
- 日本語
- English
- 简体中文
💰 料金について
Q: OpenClawは無料ですか?
A: はい、OpenClawフレームワーク自体は「オープンソース」であり無料です。 ただし、Agentの頭脳として利用するAIプロバイダー(OpenAI、Anthropicなど)のAPI利用料は自己負担となります。コストを抑えるためには、強力な無料枠を提供するCerebrasや、ご自身のPC内で動かす無料のローカルLLM(Ollama経由のLlama 3など)の活用を強くお勧めします。
🖥 実行環境について
Q: クラウドAPIを使わずに完全ローカルで動かせますか?
A: 完全ローカルでの稼働も可能です!Ollamaを利用すれば、モデル(Llama 3やGemmaなど)をあなたのハードウェア上で直接実行できます。これにより、機密データのプライバシーを極限まで保ち、APIコストを完全にゼロに抑えることができます。
🛡 セキュリティについて
Q: AIに自分のパソコンのターミナルコマンドを実行させるのは安全ですか?
A: 便利である一方で、リスクもあります。そのため、OpenClawには強力な**承認システム(exec-approvals.json)**が備わっています。
重要なファイル削除やシステム変更などの破壊的コマンドが実行される前に、「実行してよいか?」と人間の確認(承認/拒否)を求める設定が標準でオン(ask: "on")になっています。AIの「幻覚(ハルシネーション)」暴走がシステムを壊さないよう、初心者のうちは絶対にこの設定をオフにしないでください。
💰 Pricing
Q: Is OpenClaw free?
A: Yes, the OpenClaw framework itself is open-source and free to use. However, you are responsible for the API usage costs of your chosen AI provider (e.g., OpenAI, Google, Anthropic). To minimize costs, we highly recommend utilizing generous free tiers like Cerebras, or running free local LLMs on your own PC (like Llama 3 via Ollama).
🖥 Environment
Q: Can I run OpenClaw entirely locally without cloud APIs?
A: Yes! OpenClaw supports local models via Ollama. You can run models like Llama 3 or Gemma entirely on your own hardware, maximizing privacy and keeping API costs at absolute zero.
🛡 Security
Q: Is it safe to let an AI run terminal commands on my PC?
A: While highly convenient, it does carry risks. That is why OpenClaw includes a robust Approval System (exec-approvals.json).
By default (ask: "on"), it prompts you for human confirmation (Approve/Deny) before executing any potentially destructive command, such as deleting significant files or changing system settings. As a beginner, you should strictly keep this setting on to prevent damage caused by AI "hallucinations."
💰 费用相关
Q:OpenClaw 是免费的吗?
A:是的,OpenClaw 框架本身是“开源”且完全免费使用的。 但是,您需要为您选择作为代理大脑的 AI 提供商(如 OpenAI、Google、Anthropic 等)的 API 使用支付费用。为了节省成本,我们强烈建议您利用提供慷慨免费额度的 Cerebras,或是通过 Ollama 运行您电脑上完全免费的本地 LLM(例如 Llama 3)。
🖥 运行环境
Q:我可以在不使用云 API 的情况下,完全在本地运行吗?
A:完全可以!OpenClaw 通过 Ollama 支持本地模型。您可以在自己的硬件上彻底运行 Llama 3 或 Gemma 等模型,从而获得极致的数据隐私安全,并将 API 成本降到零。
🛡 安全问题
Q:让 AI在我的电脑上运行终端命令安全吗?
A:虽然非常便利,但同时也伴随着风险。正因如此,OpenClaw 标配了强大的 审批系统(exec-approvals.json)。
在执行删除重要文件或修改系统设置等破坏性命令之前,系统默认开启了(ask: "on")人工确认请求(批准/拒绝)。为了防止 AI “幻觉”造成的系统破坏,如果您是初学者,绝对不要关闭此确认设置。