>_
OpenClaw Blog
チュートリアル

OpenClaw をローカルで動かすまで

#install #rust #quickstart

OpenClaw をローカル環境で動かすまでの手順をまとめます。 Rust の toolchain さえあれば、外部サービスなしで動きます。

前提条件

  • Rust 1.75 以上(rustup 推奨)
  • Git

インストール

git clone https://github.com/zeroclaw-labs/zeroclaw
cd zeroclaw
cargo build --release

ビルド後は target/release/zeroclaw のシングルバイナリが生成されます。

設定ファイル

config.toml を作成して LLM プロバイダを指定します。

[provider]
type = "openai"
api_key = "sk-..."
model = "gpt-4o"

[memory]
path = "./memory.db"

[channel]
type = "cli"

OpenAI 互換エンドポイントであれば base_url を変えるだけでローカル LLM(Ollama など)にも対応できます。

[provider]
type = "openai"
base_url = "http://localhost:11434/v1"
api_key = "ollama"
model = "llama3"

起動

./target/release/zeroclaw --config config.toml

CLI チャネルが起動し、対話セッションが始まります。

OpenClaw 🦀 ready.
> hello
Hello! I'm OpenClaw, your autonomous AI assistant. How can I help you?

リソース消費の確認

# 起動直後のメモリ使用量を確認
ps aux | grep zeroclaw

RAM 5MB 以下というのは誇張ではなく、実際に計測可能です。 次回は Telegram チャネルへのデプロイを扱います。