一条命令跑起来:用 Ollama 运行 OpenClaw 个人 AI 助手
摘要
Ollama 0.17 新增 launch 命令,一行搞定 OpenClaw 的安装、配置和启动。开放模型跑个人 AI 助手从没这么简单过。
如果你关注本地 AI 工具链,Ollama 大概不需要多介绍 - 它是目前最流行的本地大模型运行工具,一条命令就能拉取和运行各种开放模型。
但 Ollama 最近做了一件更有意思的事:它不再只是一个模型运行器了。
从"跑模型"到"跑应用"
Ollama 0.17 新增了一个 launch 命令,把"下载应用 + 配置模型 + 启动服务"合成了一步。目前支持 Claude Code、OpenCode、Codex、Droid,以及今天要聊的 OpenClaw。
OpenClaw:本地运行的个人 AI 助手
OpenClaw 能连接你的消息平台 - WhatsApp、Telegram、Slack、Discord、iMessage - 帮你处理邮件、管理日历、完成各种任务。和云端 AI 助手不同,它跑在你自己的设备上,数据不离开本地。
之前想跑 OpenClaw,需要自己装环境、下代码、配模型。现在一条命令:
ollama launch openclaw --model kimi-k2.5:cloud
Ollama 自动检测环境、安装 OpenClaw、配好模型连接、直接启动。
模型怎么选
云端模型(能力强,不吃显存):kimi-k2.5:cloud、minimax-m2.5:cloud、glm-5:cloud,还自带 Web 搜索。
本地模型(数据不出本地,需约 25GB 显存):glm-4.7-flash、qwen3-coder。
官方建议至少 64K token 上下文窗口,云端模型默认满足。
值得关注的趋势
ollama launch 表面上是"减少配置步骤",背后的趋势更有意思 - Ollama 正在从模型运行时进化成 AI 应用平台。以前是"让本地跑模型变简单",现在是"让本地跑 AI 应用变简单"。
模型是基础设施,应用才是用户真正需要的东西。就像 App Store 不需要你关心操作系统的内存管理一样,ollama launch 不需要你关心模型怎么配、API 怎么连。
对于想用开放模型做点实际事情的人来说,工具链已经成熟到"一条命令"的程度了。
相关文章
2026年3月12日
OpenClaw 龙虾市集:大厂排队取餐,创始人买单
百度在公司楼下办了个龙虾市集帮人装 OpenClaw,腾讯爬光了 ClawHub 做了个 SkillHub。创始人 steipete 说:你们吃得很开心,账单能看一眼吗?
2026年4月3日
AI Agent 框架对比:LangChain vs CrewAI vs AutoGen vs OpenClaw
四个主流 AI Agent 框架的真实使用体验对比。不吹不黑,说说各自的优缺点和适用场景。
2026年3月29日
用飞书 CLI + AI Agent 搭了个 A 股投资助手
飞书命令行工具刚开源,我拿它配合 Claude Code 搭了个 A 股每日跟踪系统:多维表格管理持仓、自动抓取行情数据、一句话创建盘中提醒。从安装到跑通,全程自然语言驱动。
合作伙伴
CompeteMap — 英国及爱尔兰学生竞赛一站式搜索
数学、编程、科学、写作等各类竞赛信息汇总,支持按年龄和科目筛选,再也不错过报名截止日。