核心网络要求总结
- 部署阶段(安装时):需要访问互联网以下载代码、模型和依赖包。
- 运行阶段(使用时):
- 开发/测试模式:通常只需本地回环地址(127.0.0.1) 或局域网访问,无需公网。
- 生产/API服务模式:需要规划内网或公网访问策略,并确保相关服务端口可被客户端访问。
分阶段详细要求
安装与部署
此阶段主要发生在克隆仓库和安装依赖时。

-
必需条件:
- 稳定的互联网连接:用于从 GitHub 克隆
opencompass/openclaw仓库。 - 访问PyPI和Conda仓库:用于下载Python依赖包(如
torch,transformers,gradio等)。 - 访问模型仓库:需要从 Hugging Face Hub 或 ModelScope 下载所需的预训练大语言模型(LLM)和嵌入模型,这是对网络要求最高的一步,因为模型文件通常很大(几GB到几十GB)。
- Hugging Face:
https://huggingface.co - ModelScope:
https://modelscope.cn
- Hugging Face:
- 稳定的互联网连接:用于从 GitHub 克隆
-
网络优化建议:
- 使用国内镜像源:如果访问海外网络较慢,可以配置:
- PyPI镜像:如清华源、阿里云源。
- Conda镜像:同样可使用清华源。
- 模型镜像:对于Hugging Face模型,可使用
huggingface-cli的--mirror参数指定国内镜像(如modelscope),OpenCompass/OpenClaw项目本身已深度集成ModelScope,这是一个很好的国内替代方案。
- 代理设置:如果处于受控网络环境,可能需要配置
http_proxy和https_proxy环境变量。
- 使用国内镜像源:如果访问海外网络较慢,可以配置:
运行与访问
此阶段发生在启动OpenClaw的Web服务或API服务后。
-
服务端内部通信:
- OpenClaw的各个组件(如LLM服务、检索服务、Web UI)可能通过本地端口进行通信,需要确保这些端口在服务器内部可用,无防火墙阻拦。
- 如果你单独启动了某个模型的API服务(如
Ollama或vLLM),OpenClaw需要能通过localhost:port访问到它。
-
客户端访问:
- Gradio Web UI:默认情况下,启动的Gradio服务会监听
0.0.1:7860,这意味着只有服务器本机可以通过浏览器访问http://127.0.0.1:7860。 - 局域网访问:如果你希望同一网络下的其他设备访问,通常需要在启动命令中设置
server_name="0.0.0.0"。python cli/webui.py --server-name 0.0.0.0 --server-port 7860
你需要确保服务器的防火墙开放了7860端口,并且客户端能通过服务器的局域网IP(如
http://192.168.1.100:7860)访问。 - 公网访问(慎用):
- 将
server_name设置为0.0.0并通过路由器设置端口转发,可将服务暴露到公网。 - 强烈不建议直接将Gradio服务暴露在公网,因为它可能缺乏足够的安全防护(如认证、HTTPS)。
- 推荐的安全做法:使用 Nginx/Apache反向代理,并配置SSL证书(HTTPS)、身份验证和访问控制。
- 将
- Gradio Web UI:默认情况下,启动的Gradio服务会监听
-
API服务访问:
- 如果OpenClaw以API模式部署(例如基于FastAPI),你需要关注其监听的端口(如
8000)。 - 同样的,需要配置防火墙和网络规则,允许你的API客户端(如其他应用程序)访问该端口。
- 如果OpenClaw以API模式部署(例如基于FastAPI),你需要关注其监听的端口(如
端口参考清单
在运行OpenClaw及其相关组件时,可能会涉及以下默认端口(具体以你的配置为准):
| 组件/服务 | 默认端口 | 说明 |
|---|---|---|
| OpenClaw Gradio UI | 7860 | Web交互界面端口。 |
| OpenClaw API Server | 8000 | 如果提供独立的API服务。 |
| Ollama | 11434 | 本地运行LLM的常用服务。 |
| vLLM API Server | 8000, 8001 | 高性能LLM推理服务的API和监控端口。 |
| Milvus / Qdrant | 19530, 6333 | 向量数据库服务端口。 |
防火墙配置:在服务器或云主机的安全组中,你需要根据上述端口,有选择地开放入站规则。
安装检查清单(网络部分)
- [ ] 安装前:测试能否正常访问
github.com、pypi.org或国内镜像源、huggingface.co或modelscope.cn。 - [ ] 下载模型:确认有足够的带宽和存储空间下载大模型文件。
- [ ] 运行时:
- 如果仅本地使用:无需特殊网络配置。
- 如果需要局域网访问:修改启动命令为
server_name="0.0.0.0",并在系统防火墙开放对应端口。 - 如果需要公网访问:务必设置反向代理(Nginx)、HTTPS和访问密码。
对于大多数个人用户和开发测试场景,OpenClaw的安装需要较好的国际互联网访问能力(或善用国内镜像),而运行阶段主要在本地或内网,网络要求简单,生产环境部署则需要仔细规划网络架构、安全策略和端口配置。
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。