最近在做 AI 应用时,总有一种隐约的感受: 它回答的很快,但似乎太快了 – 问题刚提出,它已经给出结论;条件还没理清,它已经开始总结;我只是想讨论一下,它却急着把话题"收尾"。
这让我不免产生一个疑问: 为什么 AI 看起来这么没有耐心?
这里作为使用者,我做出我的一些猜想和判断,抛砖引玉:
也许"等"在训练之初就不是一个选项#
一开始,我以为这是产品设计的问题。
Chatbot 追求即时响应,交互节奏偏快,自然会让人产生"被催促"的感觉。但在实际使用中,我逐渐发现,即便刻意放慢节奏、引导它一步步讨论,AI 依然很容易提前给出结论。
这让我意识到一个可能被忽略的前提:
AI 并不是选择了"快",而是并不知道"等"是一种选项。
模型的第一目标是输出#
从模型层面看,AI 的基本工作方式非常简单:
在已有上下文的基础上,继续生成下一段内容。
在这个机制下:
- 输出,代表系统在正常运转
- 不输出,会带来等待焦虑
- 暂停,也不会带来额外收益
人类在思考时,可以选择不说话; 但 AI 一旦"停下来",在系统层面就等同于没有工作。
于是,当信息还不充分时,它最合理的行为,并不是等待更多条件,而是尽可能提供回答反馈。
训练数据里,没有思考的具象#
这句话反过来说,所有的文字都是人类思考的结果,在结果里是没有人类思考过程中的斟酌、挣扎、权宜的实际过程。就像我们可以花半小时学会一个数学公式并熟练使用,但是无法感同身受地重现提出者的思考过程。
真实的人类思考过程,往往是凌乱的、反复的、不确定的,但这些内容很少被完整记录下来。
结果是,AI 看到的世界,几乎全部是"已经想清楚之后"的样子。
在这样的数据分布下,它自然会认为:
尽快形成一个完成态,是最合理的做法。
AI 可以模拟耐心,但并不真正拥有耐心#
AI 可以写出"让我再想想"这样的句子,看起来像是在谨慎行事。但从内部机制来看,这依然只是一次文本生成。
它并不会因为不确定而暂停计算,也不会因为信息不足而主动等待。 它只是在当前条件下,继续完成一次预测任务。
AI 展示出来的耐心,更像是一种语言风格,而不是一种决策能力。
因此,各类 Agent 几乎不约而同地,选择让 AI 进入一种 「输出 → 实践 → 验证」的循环。
如果 AI 本身缺乏等待和犹豫的能力,那么最稳妥的做法,就不是要求它在"想"的阶段变得更耐心,而是尽快把想法落到现实中去检验。
与其让模型在内部反复"再想想",不如让它尽快执行一个可回退的动作,再根据结果修正方向。
这实际上是一种思路上的转变:
从延长思考时间,转向增加试错次数。
个人觉得这是一个绝妙的想法,人类的斟酌其实就是预测和推演,现在让 AI 循环 「生成方案 → 评价方案」去暴力拆解人类直觉性的、“偷懒"性的思考达到类似的效果。
这里有必要聊一下我为什么说人类的思考是直觉性的,“偷懒"性的。 “偷懒"这个词,听起来像贬义,但在这里并非如此。人类的大多数思考,并不是严格意义上的穷举和推理,而是一种高度压缩后的近似计算。 我们会快速忽略不重要的分支,凭经验跳过大量中间步骤,用感觉替代验证,用"差不多"代替"最优”。这种方式之所以成立,是因为人类拥有大量隐性经验,可以在无意识中完成筛选。但从计算角度看,这本身就是一种对算力的节省。
所以,当我们让 AI 进入「输出 → 实践 → 验证」的循环时,本质上是在做一件事:
用可重复的试错,替代人类不可见的直觉。
这就是让 AI 把"耐心"从内部思考,转移到外部过程。



