什么是 AI小龙虾 / OpenClaw?
它是一个基于大语言模型(LLM)的智能代码助手和自动化工具,你可以把它理解为一个更强大、更本地化、可定制的“程序员副驾驶”,它不仅能帮你写代码、解释代码、修复Bug,还能根据你的自然语言描述,自动执行一些复杂的操作(比如分析文件、整理数据等)。

核心特点:
- 本地/离线运行:你可以使用本地部署的模型(如Qwen、DeepSeek等),保护隐私,无需联网。
- 命令行与图形界面:既有强大的命令行工具,也有简洁的Web图形界面。
- 多功能:代码生成/解释、对话、文件分析、自动化脚本等。
安装前准备
- 操作系统:推荐 Windows 10/11, macOS 或 Linux,本教程以 Windows 为例,其他系统步骤类似。
- Python 环境:这是必须的,请确保你安装了 Python 3.8 或更高版本。
- 如何检查? 打开命令提示符(CMD)或 PowerShell,输入
python --version或python3 --version查看。 - 如果没有安装:去 Python官网 下载安装包,安装时务必勾选 “Add Python to PATH” 选项。
- 如何检查? 打开命令提示符(CMD)或 PowerShell,输入
- Git(可选但推荐):用于下载开源代码,可以从 Git官网 下载安装。
- 网络:安装过程中需要下载一些依赖包,请保持网络通畅,国内用户建议配置Python镜像源(见下文)。
详细安装步骤(入门级)
我们将使用最主流的安装方式:通过 pip(Python的包管理工具)安装。
打开终端(命令提示符)
- 在Windows上,按
Win + R键,输入cmd或powershell,然后回车。 - 在macOS/Linux上,打开“终端”应用。
(可选但推荐)创建虚拟环境
这是一个好习惯,可以为这个项目创建一个独立的Python环境,避免与其他项目冲突。
在终端中输入以下命令:
# 激活虚拟环境 # Windows: openclaw_env\Scripts\activate # macOS/Linux: # source openclaw_env/bin/activate
激活后,你的命令行提示符前面会出现 (openclaw_env) 字样。
(可选)配置国内镜像源(加速下载)
如果你在国内,下载速度可能很慢,可以临时使用国内镜像:
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
安装 OpenClaw 核心包
在激活的虚拟环境中,运行以下命令进行安装:
pip install openclaw
或者安装包含更多功能的版本:
pip install "openclaw[all]"
等待安装完成,这个过程会下载所有必要的依赖。
安装并配置 Ollama(本地模型引擎)
OpenClaw 本身是一个框架,需要“大脑”(即LLM模型)才能工作,我们使用 Ollama 来方便地在本地运行开源模型。
-
下载安装 Ollama:
- 访问 Ollama官网。
- 根据你的操作系统(Windows/macOS/Linux)下载并安装,安装过程非常简单,一路下一步即可。
-
拉取一个模型: Ollama 安装好后,会在后台运行,我们打开一个新的终端(注意:虚拟环境可以不激活,Ollama是独立的应用),拉取一个适合编程的、中等大小的模型。DeepSeek-Coder 或 Qwen2.5-Coder:
# 拉取 DeepSeek-Coder 模型(约6B参数,对硬件要求相对友好) ollama pull deepseek-coder:6.7b # 或者拉取 Qwen2.5-Coder 模型 # ollama pull qwen2.5-coder:7b
- 注意:模型文件较大(几个GB),请确保有足够的磁盘空间和稳定的网络,首次下载需要一些时间。
配置 OpenClaw 连接到 Ollama
OpenClaw 需要知道去哪里找模型。
- 在终端中(建议回到激活了
openclaw_env的终端),运行以下命令来配置OpenClaw:openclaw configure
- 它会引导你进行配置,当询问模型提供商时,选择
ollama。 - 询问模型名称时,输入你刚才拉取的模型名,
deepseek-coder:6.7b。 - 询问Ollama基础地址时,一般默认就是
http://localhost:11434,直接回车即可。 - 配置完成后,会生成一个配置文件(通常在用户目录下的
.openclaw文件夹里)。
第一次使用:快速上手
使用命令行交互模式(最简单)
在终端中,输入:
openclaw chat
这会启动一个对话界面,你可以直接向AI提问了!
你: 用Python写一个函数,计算斐波那契数列的第n项。
按 Ctrl+C 可以退出对话。
使用Web图形界面(更直观)
OpenClaw 自带一个简洁的Web界面。
- 启动Web服务器:
openclaw web
- 命令行会显示一个地址,通常是
http://localhost:7860或http://127.0.0.1:7860。 - 打开你的浏览器(如Chrome, Edge),输入这个地址。
- 现在你可以在网页的对话框里和AI聊天了,体验和ChatGPT网页版类似!
在命令行中直接提问
openclaw run “用Python写一个简单的猜数字游戏”
它会直接将结果输出到终端。
尝试一些进阶功能
-
分析代码:你可以让AI分析你本地的一个Python文件。
openclaw run --file ./my_script.py “请解释这段代码是做什么的,并指出可以优化的地方。”
(需要将
./my_script.py替换成你实际文件的路径) -
处理项目文件:OpenClaw可以读取整个目录的文件来提供更精准的帮助。
openclaw run --path ./my_project “这个项目的结构是什么样的?主要功能是什么?”
常见问题与解决(新手必看)
-
报错
‘openclaw‘ 不是内部或外部命令- 原因:Python的Scripts目录不在系统PATH中,或者虚拟环境未激活。
- 解决:确保在激活的虚拟环境
(openclaw_env)中运行命令,如果还不行,尝试用python -m openclaw代替openclaw(python -m openclaw chat)。
-
Ollama 模型拉取失败或速度慢
- 原因:网络问题。
- 解决:可以配置Ollama使用国内镜像,在拉取模型前,设置环境变量:
setx OLLAMA_MODELS “https://ollama.learndataanalysis.org” # Windows # 或者 export OLLAMA_MODELS="https://ollama.learndataanalysis.org" # macOS/Linux
然后重启终端再拉取模型。
-
Web界面打不开
- 原因:端口被占用或服务未成功启动。
- 解决:检查
openclaw web命令是否有错误输出,可以尝试指定另一个端口:openclaw web --port 8080,然后在浏览器访问http://localhost:8080。
-
AI回答速度慢或卡顿
- 原因:本地模型推理需要消耗CPU/GPU资源,模型越大,对电脑配置要求越高。
- 解决:确保你的Ollama在运行时能利用GPU(如果电脑有独立显卡NVIDIA GPU,Ollama一般会自动尝试使用),对于配置不高的电脑,使用更小的模型(如
qwen2.5-coder:1.5b,codellama:7b)体验会更流畅。
下一步探索
恭喜你!现在已经成功安装并运行了AI小龙虾,接下来你可以:
- 探索更多命令:在终端输入
openclaw --help查看所有可用命令。 - 尝试不同模型:用
ollama pull拉取其他模型,然后在配置中切换。 - 阅读官方文档:访问 OpenClaw的GitHub主页 或官方文档,了解更高级的用法和插件。
这个工具就像你的一个编程小伙伴,多问它问题,多让它帮你处理任务,你会越来越熟练的!祝你玩得开心!
标签: 虚拟环境 openclaw_env