人在回路中
/ˈhjuːmən ɪn ðə luːp/
Also known as: HITL, human oversight, human-AI collaboration, supervised automation
什么是人在回路中?
人在回路中(HITL)是指设计有明确点的 AI 系统,在执行之前人类审查、批准、修改或推翻 AI 决策。这是完全手动工作和完全自主 AI 之间的中间地带。
HITL 中的”循环”代表连续循环:
- AI 提议一个行动或决策
- 人类审查并批准、修改或拒绝
- 系统执行(或不执行,基于人类决策)
- AI 学习来自人类反馈(可选)
为什么人在回路中很重要
对于信任
组织还没有准备好给 AI 完全自主权。HITL 提供护栏,同时仍然获得自动化好处。
对于质量
AI 会犯错误。人类审查在错误影响客户、财务或运营之前捕获它们。
对于问责
当出现问题时,明确的人类决策点建立责任。
对于合规
许多行业(医疗保健、金融、法律)需要对自动决策进行人工监督。
自主性光谱
| 级别 | 描述 | 人类角色 | 示例 |
|---|---|---|---|
| 手动 | 人类做一切 | 执行者 | 传统工作 |
| 辅助 | AI 建议,人类行动 | 决策者 + 执行者 | 自动完成 |
| 监督 | AI 行动,人类批准 | 批准者 | 带”发送”按钮的电子邮件草稿 |
| 自主 | AI 独立行动 | 异常处理程序 | 后台数据处理 |
今天的大多数企业 AI 在”监督”区域运作——HITL 领域。
常见的 HITL 模式
批准工作流
AI:"我已起草了这份合同修正案。
更改:付款条款 30→45 天"
人类:[批准] [编辑] [拒绝]
置信度阈值
AI 决策置信度 > 95%:自动执行
AI 决策置信度 80-95%:标记以供审查
AI 决策置信度 < 80%:需要人类决策
批量审查
AI 处理 1000 张发票
AI 标记 50 张为"异常"
人类审查标记的项目
AI 从纠正中学习
升级
AI 处理常规支持工单
AI 将复杂/敏感问题升级给人类
人类处理升级的案例
何时使用人在回路中
高风险决策:招聘、解雇、大额采购、法律事务
新情况:AI 以前没有见过这种模式
监管要求:医疗诊断、财务建议
面向客户:错误直接影响人的地方
早期部署:在扩大自主权之前建立信任
何时从回路中移除人类
高容量、低风险:处理数千个常规交易
明确定义的规则:明确的对/错答案
已证明的准确性:AI 已展示一致的性能
时间关键:人类会减慢必要的流程
成本过高:人类审查会消除投资回报率
渐进自主模型
聪明的组织从 HITL 开始,随着信任建立逐渐减少人类参与:
第 1 个月:人类批准每个 AI 行动 第 3 个月:人类审查 20% 的样本 第 6 个月:人类仅处理异常 第 12 个月:完全自主,定期审计
这种”自主毕业”平衡了安全与效率收益。
HITL 设计原则
- 使其简单:快速批准/拒绝,而不是冗长的审查
- 显示上下文:显示 AI 的推理,而不仅仅是输出
- 启用纠正:让人类编辑,而不仅仅是接受/拒绝
- 跟踪模式:了解哪些决策需要审查
- 尊重时间:不要在人类可用性上造成瓶颈
相关阅读
- AI 代理 - 可能以不同 HITL 级别运行的系统
- AI Copilot - 特定的 HITL 模式
- 知识工作中断 - HITL 决策的背景