养了个AI员工后,我不用每天打开ChatGPT了
过去一个月,我做了5个自动化系统。
AI热点雷达:每小时自动扫描全球AI新闻,聚类检测热点,达到阈值就推送。
黄金盯盘:1小时涨跌幅超过2%就告警。我不盯盘,不用打开任何交易软件。
每日AI简报:每天9点自动生成AI新闻简报,推送到飞书。
Todo提醒:每天定时检查Todo列表,未完成的项目主动提醒。
技能系统:用嘴写Skill,定义好工作流,agent自动执行。
用的是什么?OpenClaw。
但更准确的说法是:我养了一个”数字员工”。
从工具到员工
一开始我也跟大多数人一样,把AI当工具。
打开ChatGPT,输入prompt,获取结果。完成。
这是典型的”人驱动AI”模式:我不动,AI不动。我动,AI才动。
我每天早上需要”打开AI”才能获取信息。我需要”调用AI”才能完成工作。
但OpenClaw不一样。它是一个可以独立运行的agent,有自己的记忆,有技能扩展性,有主动性。
关键在于**心跳机制(heartbeat)**。
简单说,系统可以定时让agent自动运行,不需要我每次亲自动手。它会主动检查数据、主动判断是否需要行动、主动通知我。
这就是”员工”和”工具”的区别:
- 工具:我调用它,它执行。我不动,它不动。
- 员工:我构建它,它运行。它自己知道什么时候该找我。
我现在每天早上收到的AI日报,不是”我让AI写的”,而是”AI agent每天自动写的”。
我不需要每天打开一次ChatGPT。但我的”数字员工”每天都在为我工作。
我做了什么
AI热点雷达
我想实时跟踪全球AI热点,但不想每天刷新闻网站。
于是我写了一个脚本:定时抓取AI新闻数据,通过聚类算法把相似主题归类,计算每个话题的”热点分数”。
热点分数怎么算?
1 | |
当分数 ≥ 6 时,说明值得关注。我现在每小时都会收到一轮扫描结果,但只有真正有热点时才会收到通知。
黄金盯盘
我不炒短线,但关心重大波动。设置了规则:1小时涨跌幅超过2%就告警。系统帮我看,不用盯着K线图。
每日AI简报
每天9点自动搜索全球AI新闻、筛选、生成、发送。我现在每天早上收到的日报,是系统”写”的。
Todo提醒
每天检查Todo列表,未完成的项目主动提醒我。治好了我的拖延症(部分)。
技能系统
我用嘴定义了各种Skill:写文章的、分析数据的、搜索信息的。这些Skill就像”员工”的”工作手册”,定义好流程,它照着执行。
踩过的坑
坑1:权限极大,慎重更改
OpenClaw可以修改自己的配置和代码。这是最强大的地方,也是最危险的地方。
我有一次想优化一个Skill的代码,结果改错了参数,整个agent无法启动。还好有备份,才能恢复。
教训:做任何修改前,先备份。情况不对赶紧/stop。
坑2:密钥硬编码
它能帮你发消息、执行命令,意味着它持有你的各种API密钥。
我把密钥硬编码在脚本里,结果被第三方库泄露了。虽然没有造成实质性损失,但让我后怕了很久。
教训:不要把敏感密钥硬编码。用环境变量或密钥管理服务。
坑3:删除权限要谨慎
它可以删除文件、执行命令。我给了删除权限,结果误删了workspace里的重要文件。因为用的是rm而不是trash,根本找不回来。
教训:delete权限谨慎给。最好用trash而不是rm。
坑4:网上技能谨慎安装
Clawhub上有各种开源技能,但不是每个都安全。
我安装了一个第三方Skill,后来发现它有隐藏的数据上传行为。虽然不是敏感数据,但这种行为让我很不舒服。
教训:安装前让agent深度分析代码,确认安全再用。
坑5:不要在主力设备上运行
我把agent放在主力笔记本上运行,结果有一次内存泄漏的bug,agent进程慢慢吃掉所有内存,最后整个系统变得非常卡,我不得不强制重启,丢掉了正在编辑的代码。
教训:用备用机或VPS。隔离运行环境。
坑6:便宜模型的代价
我试过用更便宜的模型。结果幻觉很多,做错了我需要花更多时间重做。高难度任务更是完不成。
有一次让它帮我总结一篇英文论文,结果它把一些没出现过的内容”编”了出来。还有一次,让它帮我写一个复杂的Python脚本,便宜的模型写了半小时写不出来,切换到更强的模型后,5分钟搞定。
教训:在预算范围内,选最好的模型。便宜不是真的便宜——你浪费的时间更贵。
AI Agent的本质
大部分人的理解是:一个更智能的助手,一个能执行多步骤任务的chatbot。
但本质是:AI Agent是一个可以独立运行的执行单元。
它可以自主感知环境、自主决策、自主执行。这就是为什么我不需要每天”用”AI。真正的Agent不需要我告诉它该做什么——它自己知道什么时候该做什么。
这和”工具”的区别是:
- 工具:你调用它,它执行,然后你得到结果
- Agent:你构建它,它运行,然后它在需要时通知你
一个需要你主动,一个为你主动。
能力边界
OpenClaw的能力边界是完全开放的。它能做什么,取决于你:
- 给它什么工具 - 可以调用各种API、MCP服务、本地脚本
- 给它多大权限 - 可以读取文件、发送消息、执行命令
- 给它什么技能 - 可以通过Skill定义工作流
这意味着,它的上限不是”工具本身”,而是你构建系统的能力。
这是我目前给agent配备的:
- 消息渠道:飞书、Telegram
- 数据获取:web搜索、RSS订阅、API调用
- 执行能力:运行脚本、执行命令、读写文件
- 定时任务:cron作业、心跳检测
- 记忆系统:长期记忆、短期状态
接下来想做的
社交网络运营:自动发小红书、自动发X、自动回复评论。
信息整理:帮我整理X上收藏的内容,自动同步到Notion。
日程管理:帮我规划时间块,提醒我什么时候该做什么。
深度定制技能:帮我写技术博客、做调研分析、处理邮件。
关键是:你想让它成为什么样的”员工”?
2026年的预测
2026年会分化出两种人:
第一种:AI用户
他们每天使用ChatGPT、Claude、Cursor来”帮助”他们工作。他们会很高效,但本质上还是”人工作,AI辅助”。
他们需要:
- 每天打开AI工具
- 每次亲自动手写prompt
- 每次等待AI执行完成
第二种:AI架构师
他们不天天用AI写代码,而是构建一套系统,让AI为他们自动工作。他们可能一周都不打开一次ChatGPT,但他们的系统一直在运行。
他们的系统会:
- 自动获取数据
- 自动筛选处理
- 自动执行任务
- 只在需要时通知他们
第二种人不是”更会用AI”,而是他们已经不需要亲自用AI了。
就像工业革命时期,最早的工厂主不是”更会用蒸汽机的人”,而是建造了蒸汽机驱动系统的人。
我的选择
过去一个月,我不是在”学习AI”或”提高AI使用技巧”。我是在建造一个由AI驱动的自动化系统。
这个系统包括:
- 数据获取层(抓取新闻、价格、通知)
- 处理层(聚类、分析、过滤)
- 决策层(阈值判断、热点检测)
- 执行层(自动推送、告警)
每一层都有AI参与,但不是以”工具”的身份,而是以”员工”的身份。
我的角色不是”使用者”,而是”架构师”。
什么是”会用AI”
大部分人的理解是:会用ChatGPT、Claude,会写Prompt。
但真正的”会用AI”,是把AI变成帮你工作的系统,而不是把AI当成你使用的工具。
- 工具:我操作AI
- 系统:AI操作自己,我只需要设定规则
你现在每天”用AI”的方式:打开ChatGPT,输入问题,等待回答。
但我每天”用AI”的方式:起床,收到AI整理好的日报,该干嘛干嘛。
你不需要使用AI。你需要的是让AI为你工作。