沃顿商学院教授 Ethan Mollick:用“组织设计”思维解决 AI 幻觉问题

鏈新聞abmedia

AI 幻觉(hallucination)至今仍是大型语言模型(LLM)最令人头痛的一个问题之一,但沃顿商学院教授 Ethan Mollick 在 X 上提出了一个耐人尋味的观点:人类数百年来早已发展出成熟的机制,能够从不可靠的来源中获得可靠的输出——那套机制叫做“组织结构”(organizational structures),而我们完全可以将类似的方法应用在 AI 上。这则推文获得 329 个爱心、35 次转推和 44 则回复,引发了一场关于如何务实应对 AI 幻觉的深度讨论。

什么是“组织结构”类比?

Mollick 的核心论点直指一个常被忽略的事实:人类从来就不是完美可靠的信息来源。历史上,无论是会计账目、医疗诊断还是法律判决,人类的输出始终存在错误风险。然而,文明之所以能够正常运作,是因为我们发展出了一整套“组织结构”来管控这些风险。

这些组织结构本质上就是一套精密的“错误拦截机器”:透过分工、层级审核、交叉验证和制度化流程,将个体的不可靠性转化为系统层级的可靠性。Mollick 认为,与其执着于追求一个“永不出错的 AI”,不如换个思路——就像我们对待人类员工一样,为 AI 建立一套组织化的质量控制体系。

具体应用方法:审查、测试与交叉验证

在推文引发的后续讨论中,Mollick 和其他参与者进一步探讨了几种可以直接借鉴组织管理的具体方法。首先是“审查机制”(reviews),就像企业中的主管审核或同侪评审一样,让另一个 AI 模型或人类专家对 LLM 的输出进行系统性检查。

其次是“测试机制”(tests),类似于软件开发中的单元测试和质量保证流程,为 AI 的每一项输出设定可验证的标准。第三是“交叉验证”(cross-checks),让多个独立的 AI 模型或信息来源对同一问题给出答案,再比对结果的一致性——正如组织中不同部门的相互制衡。

这些方法的共同逻辑是:不依赖单一节点的完美性,而是透过系统设计来降低整体错误率。这与现代质量管理理论中“瑞士奶酪模型”(Swiss Cheese Model)的概念不谋而合——每一层防护都有漏洞,但多层叠加后,错误穿透所有层级的概率就大幅降低。

对企业 AI 部署的启示

Mollick 这套思维框架对正在导入 AI 的企业特别有启发性。许多企业在面对 AI 幻觉问题时,往往陷入两个极端:要么因为害怕错误而完全不敢使用 AI,要么过度信任 AI 输出而忽略验证。组织设计的思维提供了一条中间道路——承认 AI 会犯错,但通过制度设计将错误控制在可接受的范围内。

具体而言,企业可以建立“AI 质量管理流程”:将 AI 视为组织中的一个“员工”,为其配备审核机制、设定明确的职责边界、建立异常检测系统,并在关键决策环节保留人类复核。这种做法不仅更务实,也更符合企业已经熟悉的管理逻辑。对 AI 产业而言,Mollick 的观点提醒我们:解决 AI 幻觉的答案,或许不仅在技术层面,更在于重新思考人机协作的组织架构。

这篇文章 华顿商学院教授 Ethan Mollick:用“组织设计”思维解决 AI 幻觉问题 最早出现在 链新闻 ABMedia。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论