我用 AI Agent 跑通了一套个人自动化工作流,这是真实的搭建过程和踩坑记录

我用 AI Agent 跑通了一套个人自动化工作流,这是真实的搭建过程和踩坑记录

你大概已经看过不少”AI Agent 自动化”的教程了。

问题是,大多数教程停在”部署成功,截个图”这一步。真正拿它干活的时候,你会发现:触发不稳定、上下文丢失、多步任务跑到一半断掉、工具之间的衔接全靠手动补。

这篇不是又一个部署教程。我要讲的是:拿 AI Agent 搭一套真实跑在日常工作里的自动化流程,从选工具、搭流程、到真正跑通每一步,中间到底会遇到什么问题,怎么绕过去。

测试任务:一个内容创作者的日常自动化需求

先说背景。我的日常工作流大概长这样:

  • 每天早上要扫一遍行业信息源(Twitter、RSS、几个技术博客)
  • 把值得关注的内容整理成摘要
  • 根据摘要决定当天的写作方向
  • 写完初稿后需要校对、SEO 优化、配图、发布
  • 发布后还要做分发和数据追踪

这套流程如果全手动,每天至少 3-4 小时。我想看看,AI Agent 到底能接管多少。

测试目标很明确:不是”能不能跑通 demo”,而是”能不能连续跑一周不崩”。

工具选型:为什么最后选了 n8n + AI Agent 的组合

市面上能搭 AI 自动化工作流的工具不少。我之前在《Zapier vs Make vs n8n:谁更适合搭 AI 自动化工作流?》里详细比过三家,结论是:

  • Zapier:上手最快,但 AI Agent 节点的自由度有限,复杂逻辑写不动
  • Make:视觉化做得好,但调试体验差,出错后排查成本高
  • n8n:自托管、节点自由度高、AI Agent 节点原生支持 tool calling,适合需要深度定制的场景

这次实战我选了 n8n 自托管 + Claude API 作为 LLM 后端。原因很简单:我需要 Agent 能调用自定义工具(比如读 RSS、写 WordPress、操作文件系统),n8n 的 AI Agent 节点天然支持这些。

另外一条线,我同时在用一个 always-on 的 AI 助手处理更碎片化的任务——比如临时查资料、帮我校对文章、管理日程提醒。这部分靠的是消息平台集成型的 Agent 方案,它的优势是随时能对话,不需要打开一个专门的工作台。

两条线各管各的,互不干扰。

流程怎么走:从信息采集到内容发布的 5 步链路

最终跑通的流程是这样的:

第一步:信息采集(自动)

n8n 定时触发,每天早上 8 点自动抓取 RSS 源 + Twitter 列表。用 AI Agent 节点做初筛,把”跟 AI 工具/Agent/工作流相关”的内容过滤出来,生成一份当日摘要。

第二步:选题判断(半自动)

AI Agent 根据摘要 + 我的历史选题记录,给出 3 个选题建议,附带理由和预估搜索热度。我在消息端收到推送,回复一个数字就能确认选题。

第三步:初稿生成(半自动)

确认选题后,Agent 按照预设的写作模板生成初稿框架和关键段落。这一步不是让它写完整篇文章——我试过,质量不够。而是让它出结构 + 关键论点 + 数据引用,我再补充判断和细节。

第四步:校对和 SEO(自动 + 人工复核)

初稿完成后,Agent 自动跑一遍:错别字检查、AI 味检测、SEO 关键词建议、meta description 生成、内链推荐。结果推送给我,我过一遍确认。

第五步:发布和分发(自动)

确认后,n8n 工作流自动把文章推到 WordPress,设置分类、标签、featured image,然后触发分发流程。

哪一步最顺:信息采集和 SEO 校对

说实话,最让我省心的是第一步和第四步。

信息采集这件事,AI Agent 做得比我手动刷 RSS 好太多。它不会漏,不会因为刷到有趣的东西就跑偏,而且摘要质量稳定在”够用”以上。每天早上起来就有一份整理好的行业简报等着我,这个体验一旦习惯了就回不去。

SEO 校对也是。以前我每篇文章发布前要花 20-30 分钟手动检查关键词密度、meta description、内链。现在 Agent 自动出建议,我只需要花 5 分钟过一遍,偶尔改两个词。

这两步的共同特点是:任务边界清晰,输入输出格式固定,不需要太多主观判断。 这恰好是 AI Agent 最擅长的领域。

哪一步最掉链子:选题判断和初稿生成

最不稳定的是第二步和第三步。

选题判断的问题在于:Agent 给的建议经常”正确但无聊”。它会推荐搜索量高的话题,但缺乏对”这个话题我们能写出什么不一样的角度”的判断力。连续跑了一周,大概有 60% 的选题建议我直接否掉了。

初稿生成的问题更明显。即使给了详细的模板和风格指南,Agent 生成的内容仍然有明显的”AI 味”——句式太工整、判断太中庸、缺乏真实的使用体感。我最后把这一步的期望值降低了:不指望它写出能直接发的稿子,只要求它出一个”带数据和引用的结构化大纲”,剩下的我自己写。

这两步的共同特点是:需要品味、判断力、和对读者的理解。 这些恰好是当前 AI Agent 最弱的地方。

我怎么修:降低期望值 + 拆分人机边界

踩了一周的坑之后,我总结出一个原则:别让 Agent 做决策,让它做执行。

具体调整:

  1. 选题判断:Agent 只负责”信息收集 + 热度分析”,不负责”推荐选题”。最终选题由我根据它提供的数据自己判断。
  2. 初稿生成:Agent 只负责”结构 + 数据 + 引用”,不负责”写正文”。正文由我基于它的框架手写。
  3. 所有需要”判断”的环节:都设置成”Agent 出方案,人确认”的模式,而不是”Agent 自动执行”。

这个调整之后,整套流程的稳定性明显提升。从”每天都要救火”变成了”每天花 30 分钟过一遍 Agent 的产出,确认后自动往下走”。

真实效果:省了多少时间,哪些地方还不行

跑了两周的数据:

  • 信息采集:从每天 40 分钟降到 5 分钟(只需要扫一遍摘要)
  • 选题:从 30 分钟降到 15 分钟(Agent 提供数据,我做判断)
  • 写作:基本没省时间,Agent 出的框架有用,但正文还是得自己写
  • 校对/SEO:从 30 分钟降到 5 分钟
  • 发布/分发:从 20 分钟降到 0(全自动)

总计:每天从 3-4 小时降到 1.5-2 小时。省下来的时间主要在信息采集、校对、发布这三个环节。

还不行的地方:

  • 多步任务的上下文传递偶尔会丢。比如第一步采集的信息,到第三步生成初稿时,Agent 有时候会”忘记”前面的筛选结果。
  • n8n 的 AI Agent 节点在处理长文本时偶尔会超时,需要做分段处理。
  • 工具之间的格式转换(比如 Markdown → WordPress HTML)还是有小毛病,需要额外的清洗节点。

它适合接进什么工作流

这套方案最适合的场景:

  • 内容创作者:日常有固定的信息采集 → 选题 → 写作 → 发布流程
  • 独立开发者:需要自动化处理重复性任务,但又不想用太重的企业级方案
  • 小团队运营:2-3 人的团队,需要一个”不会请假的实习生”帮忙做信息整理和格式化工作

不太适合的场景:

  • 纯创意型工作(Agent 帮不了你想 idea)
  • 需要实时响应的客服场景(n8n 的触发延迟不够低)
  • 对数据安全要求极高的企业环境(自托管虽然数据在自己手里,但维护成本不低)

哪些人先用,哪些人先别上

可以先试的:

  • 已经有明确工作流、只是想把重复环节自动化的人
  • 对 n8n 或类似工具有基本了解、能自己调试节点的人
  • 愿意花 1-2 周时间调试和磨合的人

先别急的:

  • 期望”装上就能用、不需要调试”的人——现阶段做不到
  • 没有明确工作流、只是觉得”AI 自动化很酷”想试试的人——你会浪费时间
  • 不愿意接受”Agent 只能做 60% 的事,剩下 40% 还是得自己来”的人

回到最初的问题

我一开始想验证的是:AI Agent 能不能接管我日常工作流的大部分环节。

答案是:能接管大概 50-60%,但全是”执行层”的活。信息采集、格式转换、校对检查、定时发布——这些它做得又快又稳。

但所有需要”判断”的环节——选什么题、用什么角度、这段话该不该删——它还差得远。

如果你也在考虑搭一套 AI 自动化工作流,我的建议是:先把你的工作流拆成”判断”和”执行”两类,然后只把”执行”类的环节交给 Agent。 这样你既能省时间,又不会因为 Agent 的判断失误而翻车。

想了解更多关于工作流设计能力为什么比工具选择更重要,或者想看看AI Agent 在持续执行上的真实瓶颈,可以继续读这两篇。

滚动至顶部