OpenClaw 是一个由国内安全团队“知道创宇”开源的 AI 驱动的自动化渗透测试与漏洞挖掘框架,它集成了多种AI模型,旨在提升安全测试的智能化和自动化水平。

核心安装思路
OpenClaw 的核心是 Python 项目,其安装主要围绕 Python 环境配置、项目依赖安装 以及 可选的大模型配置 展开。
系统环境准备
推荐操作系统
- 首选:Linux (Ubuntu 20.04/22.04, Kali Linux 等),兼容性最好,也是主要开发和测试平台。
- 备选:macOS (Intel/M1/M2/M3),需要注意一些系统级依赖。
- 可选:Windows (通过 WSL2 - Ubuntu)。强烈建议在Windows上使用WSL2以获得最佳体验,避免原生Windows环境的兼容性问题。
基础工具确保已安装
打开终端,检查并安装以下工具:
# 或使用 brew install git (macOS) # 2. Python 3.10 或 3.11 (版本非常重要!) python3 --version # 如果版本不对,需要安装/切换: # Ubuntu: sudo apt install python3.10 python3.10-venv # macOS: brew install python@3.11 # 或者使用 pyenv 进行多版本管理(推荐) # 3. Pip (Python包管理器) pip3 --version
推荐安装方法(分步详解)
以下是最可靠、最主流的安装流程,适用于绝大多数用户。
步骤1:获取项目代码
# 克隆官方仓库到本地 git clone https://github.com/knownsec/OpenClaw.git # 进入项目目录 cd OpenClaw
步骤2:创建并激活虚拟环境(强烈建议)
使用虚拟环境可以隔离项目依赖,避免污染系统Python环境。
# 创建虚拟环境(命名为 venv,位于项目目录下) python3 -m venv venv # 激活虚拟环境 # Linux/macOS: source venv/bin/activate # Windows (如果使用原生CMD/PowerShell,不推荐): # venv\Scripts\activate # Windows (WSL2, 使用与Linux相同的命令) # 激活后,终端提示符前应显示 (venv)
步骤3:升级pip并安装核心依赖
# 确保pip是最新版本 pip install --upgrade pip # 安装项目所需的核心依赖包(根据 requirements.txt) # 注意:可能需要根据你的CUDA版本安装对应的PyTorch,详见步骤4 pip install -r requirements.txt
步骤4:处理深度学习框架(PyTorch)
requirements.txt 中的 torch 可能只指定了CPU版本,或者版本不匹配你的硬件。建议根据官方指引单独安装。
访问 PyTorch 官方网站,选择适合你系统的配置,获取安装命令。
- 仅CPU(无NVIDIA显卡):选择
CPU版本。 - 有NVIDIA显卡:选择你的
CUDA版本(可通过nvidia-smi命令查看)。 - macOS (Apple Silicon):选择
Nightly版本以获得对 MPS (Metal Performance Shaders) 的最佳支持。
示例命令:
# 在Linux上,使用CUDA 12.1 pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 # 仅CPU pip install torch torchvision torchaudio # macOS (Apple Silicon) pip install --pre torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/nightly/cpu
安装后,建议再次运行 pip install -r requirements.txt,确保其他依赖的版本与PyTorch兼容。
步骤5:配置AI模型(关键步骤)
OpenClaw 的强大之处在于集成了大语言模型,你需要配置API密钥或本地模型。
-
复制配置文件模板:
cp config.yaml.example config.yaml
-
编辑
config.yaml:- 使用文本编辑器(如
vim,nano, 或VSCode)打开config.yaml。 - 找到
llm部分,你会看到类似以下配置:llm: openai: api_key: "sk-xxx" # 替换为你的OpenAI API Key base_url: "https://api.openai.com/v1" # 可改为其他兼容接口,如OneAPI model: "gpt-4-turbo-preview" - 配置方式(三选一或组合):
- A. 使用在线API(推荐新手):
- B. 使用本地大模型(需较高配置):
- 安装
ollama或lmstudio,并拉取一个较小的模型(如qwen:7b,llama3:8b)。 - 将
base_url改为本地服务地址,如http://localhost:11434/v1(Ollama)。 api_key可填写"sk-no-key-required"。model填写本地模型名称。
- 安装
- C. 使用智谱AI、百度千帆等国内云服务:
- 获取对应的API Key和Base URL。
- 填入配置中。
- 使用文本编辑器(如
步骤6:验证安装
# 在项目根目录下,尝试运行帮助命令 python openclaw.py --help # 或者运行一个简单的测试任务(调用LLM进行一个简单的对话测试) python openclaw.py --task “测试连接,请回复‘Hello OpenClaw’”
如果能看到帮助信息或正常的AI回复,说明安装基本成功。
快速启动与使用示例
安装成功后,你可以参考以下命令开始探索:
- 基础信息收集:
python openclaw.py --target example.com --task "执行一次基础子域名收集"
- 漏洞扫描辅助:
python openclaw.py --target http://testphp.vulnweb.com/ --task "分析这个URL,列出可能的漏洞类型"
- 自定义工作流:
OpenClaw 支持编写自定义的
Task剧本,这是其核心功能,请查阅项目docs/目录和示例剧本。
常见问题与排错
-
ModuleNotFoundError: No module named ‘xxx’- 解决:激活虚拟环境后,使用
pip install xxx手动安装缺失的包。
- 解决:激活虚拟环境后,使用
-
CUDA版本不匹配 / Torch安装错误
- 解决:严格按照 PyTorch官网 的命令安装,如果已经装错,先
pip uninstall torch torchvision torchaudio,再重新安装。
- 解决:严格按照 PyTorch官网 的命令安装,如果已经装错,先
-
访问LLM API超时或失败
- 解决:
- 检查
config.yaml中的api_key和base_url是否正确。 - 检查网络连接,特别是访问国际API可能需要配置代理。
- 如果是本地模型,确保
ollama等服务已启动 (ollama serve)。
- 检查
- 解决:
-
运行速度慢
- 如果使用本地模型,请确保你的硬件(尤其是GPU和内存)满足模型要求。
- 使用在线API通常更快、更稳定。
官方文档与资源
- GitHub 仓库:
https://github.com/knownsec/OpenClaw- 这是最权威的信息源,请时刻关注README.md和docs/。 - Issue 列表:在安装或使用中遇到的特定问题,可以先在仓库的 Issues 中搜索,很可能已经有人提出并解决了。
- 社区讨论:可以关注知道创宇的官方技术博客或相关安全社区,获取最新的使用案例和更新通知。
总结建议:对于大多数用户,按照 第二部分(推荐安装方法) 的步骤,一步步操作,并重点关注 PyTorch安装 和 config.yaml 模型配置,即可顺利完成 OpenClaw 的安装,祝您使用愉快,在AI安全的道路上有所收获!