文章 / 2026/05/11

管智能体,其实很像管人

把智能体当作数字执行者来管理:先定义贡献和边界,再通过 PDCA、权限、人审、日志和回退机制持续校准。

管智能体,其实很像管人 文章配图

最近我在想一个问题:我们现在说做 agent、workflow、automation,本质上到底是在做什么?

我的一个判断是:做智能体,不只是写 prompt,也不只是接工具,而是在“管理一个数字执行者”。

这件事,和管理人有很多相似之处。

当然,我不是说智能体就是人。人有情绪、动机、价值判断和责任感;智能体没有。智能体只是一个被设计、被授权、被观察、被调整的系统。

但在管理方法上,两者确实很像:都需要目标、资源、执行、检查、复盘,也就是一个持续的 PDCA 循环:Plan 讲目标与边界,Do 讲执行,Check 讲验证,Act 讲纠偏与迭代。ASQ 将 PDCA 定义为持续改进的四步模型;NIST 的 AI RMF 则把 AI 风险治理组织成 Govern、Map、Measure、Manage 四个功能。我自己的判断是,这两套语言可以近似互译。

管人和管智能体的相似点与差异:主体性质不同,但都需要目标、资源、执行、检查和调整。

一、管人和管智能体,像在哪里?

管理一个人,不能只说一句“你去把这事做好”。

一个靠谱的管理者,通常会做几件事:

  • 说清楚目标是什么;
  • 给到必要的信息、工具和资源;
  • 约定结果怎么验收;
  • 过程中看进展、帮忙排障;
  • 事后复盘,调整方法。

管理智能体也是一样。

如果我只是对一个 agent 说:“帮我做好客户运营”,它很容易跑偏。因为这句话太大了。

更好的方式是说清楚:

  • 它要服务谁;
  • 要完成什么结果;
  • 能用哪些工具;
  • 哪些动作不能做;
  • 什么情况必须交给人;
  • 输出结果怎么判断好坏;
  • 失败以后怎么回退。

所以我越来越觉得,智能体不是“越聪明越好”,而是“越可管理越好”。

二、PDCA 是管理智能体的基本盘

我会把智能体治理拆成四步:

用 PDCA 管理智能体:Plan 定义贡献,Do 执行流程,Check 评估输出,Act 持续调整。

1. Plan:先定义贡献

不要一上来写 prompt,先问一句:

这个智能体到底要贡献什么?

它是帮我节省时间?减少人工审核?提升响应速度?还是降低错误率?

如果贡献说不清,后面所有技术动作都会变成“调感觉”。

2. Do:让它在边界内执行

智能体可以执行任务,但不能随便执行。

我会给它限定:

  • 可用工具;
  • 可访问数据;
  • 可执行动作;
  • token 或调用预算;
  • 最大循环次数;
  • 是否允许写入系统。

这就像管理人时的授权:可以给空间,但不能没有边界。

3. Check:看结果,也看过程

管理智能体不能只看最后输出,还要看过程。

它调用了什么工具?用了哪些资料?有没有越权?有没有重复循环?有没有高风险动作?

所以日志、trace、评测、人审都很重要。

4. Act:持续校准,而不是一次上线

智能体上线后,不是结束,而是开始。

如果它经常答错,就改提示词、知识库或评测集;如果它乱调用工具,就收紧权限;如果它任务太复杂,就退回 workflow;如果它表现稳定,再逐步扩大授权。

三、为什么《卓有成效的管理者》也能用来学智能体?

我觉得《卓有成效的管理者》对做智能体很有启发,原因不在于它讲 AI,而在于它讲清楚了“有效管理”的底层逻辑。

我会把书里的几个核心观点,翻译成智能体设计语言:

德鲁克的管理原则放到智能体里怎么理解
管好时间管延迟、成本、token、重试次数
聚焦贡献先定义业务结果,再设计 agent
发挥长处让 agent 做适合它、可验证的任务
要事优先能用 workflow 就别急着上 agent
有效决策设清楚审批、人审、升级和回退条件

这本书给我的提醒是:不要先迷恋技术能力,而要先问管理问题。

一个 agent 能不能做,不是第一问题。第一问题是:

它该不该做? 它做到什么程度算好? 它什么时候必须停下来? 它出错了谁负责? 它的权限是不是过大?

这些问题,才是智能体真正进入生产环境前必须想清楚的。

四、workflow、agent、multi-agent,不是越复杂越好

很多人容易有一个误区:觉得越 agentic、越自主、越多智能体,就越先进。

我不这么看。

我的判断是:

Automation -> Workflow -> Agent -> Multi-agent
触发器 + 动作 -> 预定义流程 -> 动态规划与工具调用 -> 多角色协作

从 Automation 到 Multi-agent,自主性逐步增强,同时权限治理、可观测性和安全成本也逐步提高。

这不是先进程度排序,而是复杂度排序。

越往右,自主性越强,但治理成本也越高。

所以我会遵循一个简单原则:

能用函数解决,就别上 workflow; 能用 workflow 解决,就别急着上 agent; 只有任务开放、步骤难以预设时,才值得增加智能体自主性。

复杂度不是荣誉,是成本。

五、智能体管理最容易翻车的地方

我看到的主要风险,不是模型“不够聪明”,而是管理设计不到位。

最常见的问题有几个:

1. 目标太大

比如“帮我做销售管理”“帮我做增长”“帮我做运营分析”。

这种目标太抽象,智能体很难稳定执行。要拆成具体任务,比如:

  • 每天汇总客户跟进风险;
  • 标记 7 天未响应的重点客户;
  • 生成待人工确认的跟进建议。

2. 权限太大

一个刚上线的 agent,不应该一开始就能删数据、发邮件、改订单、调外部系统。

我更倾向于:

先只读,再草稿,再建议,最后才是受控执行。

3. 没有人审

凡是涉及钱、客户、合同、法律、外发信息、权限变更的动作,都应该有人审。

智能体可以提建议,但关键决策不能默认自动放行。

4. 没有日志

没有日志,就无法复盘。 没有 trace,就不知道它为什么错。 没有评测,就不知道改了以后是变好还是变坏。

这就像管理人没有反馈机制,最后只能凭感觉评价。

六、我会怎么设计一个靠谱的智能体?

我会先写一张“智能体任务卡”。

## 智能体任务卡

- 名称:
- 服务对象:
- 业务目标:
- 触发条件:
- 输入来源:
- 输出结果:
- 可用工具:
- 禁止动作:
- 权限等级:
- 人工介入点:
- 成功标准:
- 失败回退方式:
- 日志记录字段:
- 负责人:
- 复盘周期:

如果这张卡写不清楚,我通常不会急着优化 prompt。

因为很多时候,问题不是模型不好,而是我们自己还没有把管理设计想明白。

七、我的结论

我现在更愿意这样表达这个观点:

管智能体,确实越来越像管人。 但不是因为智能体像人,而是因为它们都需要被放进一套目标明确、资源到位、过程可见、结果可查、持续改进的管理闭环里。

区别在于:

  • 管人,要处理信任、激励、成长和协作;
  • 管智能体,要处理目标、权限、工具、评测、日志和回退。

所以,《卓有成效的管理者》不是一本 AI 技术书,但它很适合作为智能体治理的上位参考书。

它提醒我: 先谈贡献,再谈能力; 先谈边界,再谈授权; 先谈有效,再谈智能。

真正好的 agent,不是“像人”,而是:

可管理、可观察、可审计、可回退,并且能稳定地产生有用结果。