一条命令跑起来:用 Ollama 运行 OpenClaw 个人 AI 助手
如果你关注本地 AI 工具链,Ollama 大概不需要多介绍 - 它是目前最流行的本地大模型运行工具,一条命令就能拉取和运行各种开放模型。
但 Ollama 最近做了一件更有意思的事:它不再只是一个模型运行器了。
从"跑模型"到"跑应用"
Ollama 0.17 新增了一个 launch 命令,把"下载应用 + 配置模型 + 启动服务"合成了一步。目前支持 Claude Code、OpenCode、Codex、Droid,以及今天要聊的 OpenClaw。
OpenClaw:本地运行的个人 AI 助手
OpenClaw 能连接你的消息平台 - WhatsApp、Telegram、Slack、Discord、iMessage - 帮你处理邮件、管理日历、完成各种任务。和云端 AI 助手不同,它跑在你自己的设备上,数据不离开本地。
之前想跑 OpenClaw,需要自己装环境、下代码、配模型。现在一条命令:
ollama launch openclaw --model kimi-k2.5:cloud
Ollama 自动检测环境、安装 OpenClaw、配好模型连接、直接启动。
模型怎么选
云端模型(能力强,不吃显存):kimi-k2.5:cloud、minimax-m2.5:cloud、glm-5:cloud,还自带 Web 搜索。
本地模型(数据不出本地,需约 25GB 显存):glm-4.7-flash、qwen3-coder。
官方建议至少 64K token 上下文窗口,云端模型默认满足。
值得关注的趋势
ollama launch 表面上是"减少配置步骤",背后的趋势更有意思 - Ollama 正在从模型运行时进化成 AI 应用平台。以前是"让本地跑模型变简单",现在是"让本地跑 AI 应用变简单"。
模型是基础设施,应用才是用户真正需要的东西。就像 App Store 不需要你关心操作系统的内存管理一样,ollama launch 不需要你关心模型怎么配、API 怎么连。
对于想用开放模型做点实际事情的人来说,工具链已经成熟到"一条命令"的程度了。更详细的模型选择、消息平台配置和安全建议,可以查看完整版文章。
相关文章
2026年2月21日
Cloudflare 的 Code Mode:用两个工具替代 2500 个端点
当 API 有 2500 个端点时,传统 MCP 方案要吃掉 117 万 token。Cloudflare 的 Code Mode 只用两个工具把这个数字压到 1000。背后的思路比技术本身更值得看。
2026年2月17日
Next.js 正在为 AI Agent 重新设计自己
Next.js 团队发布了一篇博客,讲述他们如何从 Agent 的视角重新思考框架设计。从一个被放弃的浏览器内 Agent,到 MCP 集成,再到 agents.md - 这篇是我的阅读笔记。
2026年2月12日
在 Telegram 里掌控 OpenClaw 上下文 - 这些命令你该知道
系统提示词占了多少 token?工具定义有多大?发个 /context 就知道了。