2026.03 与 AI 协作时应注意的 3 种局限性
[按] 以下内容来自我在 3 月份的一次内部分享稿,在对外时做了少量修改。
最近几个月,AI 的能力提升非常快。很多我们原本以为是 AI 固有缺陷的问题,过一段时间回头看,随着模型能力增强,已经不再是问题。
但与此同时,也有另一些问题,并不只是“能力还不够”那么简单。即使未来 AI 变得更强,它们仍然可能存在,甚至可能被进一步放大。
它不是一个在任何情况下都 “只要理论上足够的聪明,就可以帮你解决任何问题” 的东西。相反,在很多时候,它更像一个反应极快、态度积极、表达流畅,但也非常容易把人带偏的系统。
如果对这些局限性没有比较清醒的认识,人很容易陷入一种错觉:表面上看起来效率很高,事情推进得很快,实际上时间正在被悄悄浪费,甚至连方向都已经走歪了。
下面针对实践中遇到的三种情况,为大家做一个简单的分析:
一、AI 最大的问题,不是“不会”,而是“过度自信”
很多人刚开始用 AI,会担心它答错、胡编、能力不够。这些当然仍然是问题。但在实践中我越来越觉得,更麻烦的往往不是“它不会”,而是“明明此路不通,却表现得像很快就能解决的样子”。
它很喜欢用一种非常确定、非常流畅、非常有把握的语气,去处理一个它其实并没有判断清楚的问题。
也就是说,它往往不是先停下来判断:
- 这个信息到底存不存在
- 这个系统到底可不可用
- 这个问题是否导向了一个死胡同
它更倾向于默认:“这件事应该能做”,然后在这个前提上,迅速生成一套 看起来像解决方案 的东西。
我举一个昨天晚上刚发生的例子。
我的 AI 当时在访问一个 MCP,想拿一些信息,但它没有查到自己需要的内容。按理说,这时候最应该先确认的是一个非常基础的问题:到底是系统不可用,还是信息不存在,还是权限不对,还是调用方式本身有问题。
但它没有这样处理。
因为它前面使用这个系统一直没有出过问题,于是它很武断地认为:这里不是不可用,而是信息被截断了。
这个判断一旦成立,后面的路径就变得非常“AI”了。它开始各种“积极解决问题”:绕路、补救、变通、重试、换方法、做各种迷之操作,看起来忙得不行,也努力得不行。
但回头看,这一大串动作几乎都是无效劳动。因为那些方法绕来绕去,都没有触及问题的本质:信息到底存不存在,这个系统此刻到底可不可用。
如果这个基础问题没有确认,后面所有“积极解决问题”的动作,本质上都只是空转。你绕再多路,换再多方法,也解决不了“这个东西压根不可用”这个事实。
而人在很多时候,其实只是需要有 “主动喊停” 的意识。
有时候最正确的处理,不是继续想办法,而是给出一个简单、清楚、负面的结论:
- 这个东西现在用不了。
- 这个信息现在拿不到。
- 到这里先结束。
但 AI 很不喜欢给这种答案。
它更倾向于继续往前拱,反复尝试,继续表现出一种“我还在帮你解决问题”的姿态。某种程度上,这也是它被训练出来的一种倾向:它不喜欢让人失望,不喜欢说“这不行”,不喜欢把事情停在负面反馈上。它更倾向于避免直接给出“做不到”的结论,而是持续尝试维持一种“问题仍可推进”的状态。看上去很负责,实际却常常是在错误前提上进行高效率空转。
问题是,这种积极,恰恰非常浪费时间。
这带来一个非常现实的风险:如果你自己对这个问题并不熟,你就很容易被它带着走。它越流畅、越完整、越积极,你越容易相信它真的在接近答案;但实际上,它可能只是在一本正经地自作聪明,让你在一个错误的方向上投入越来越多的时间和资源。
对于使用 AI 的人来说,一个特别重要的能力就是:
不是只会向前推进,而是要会及时刹车。
你要能打断它,能质疑它,能逼它回到最基本的问题上:
- 这个前提成立吗?
- 这个东西真的可用吗?
- 这个信息真的存在吗?
- 这里是不是应该直接承认失败,而不是继续瞎试?
这件事听起来简单,但其实很关键。因为很多时间不是被“做错”浪费掉的,而是被“本来就不该继续做,却还在继续做”浪费掉的。
所以第一点,我现在的结论是:
AI 最大的问题,往往不是能力不够,而是过度自信;不是不会回答,而是不知道什么时候该停下来承认不行。
二、AI 擅长“通用解”,但它做不出真正有洞察力的“好解”
AI 的第二个特点,是它非常擅长把事情“做出来”,但不擅长主动把事情“做漂亮”。
你给它一个任务,它可以很快:
- 帮你补齐结构
- 帮你列出步骤
- 帮你写出一个能运行的版本
- 帮你从 0 到 1 地拼出一个完整的东西
这非常厉害,也非常有价值。
但问题在于,它默认给你的通常是一个通用的、常见的、统计意义上合理的方案,而不是一个真正有洞察力、有后劲、经得起变化的方案。
我之前看到有人用 AI 一天时间就实现了一个完整的《杀戮尖塔》式卡牌游戏。表面上看,非常惊艳:能运行、能交互、也能玩,第一眼会让人觉得效率简直夸张。
但如果你进一步去看它的代码,就会发现问题所在。它选择的基本都是一些相对朴素、直接、先把事情推起来的解决方式:状态堆在一起,逻辑一层层往下压,很多地方本质上就是一遍又一遍地 for 循环,把 buff、技能、结算、角色机制全都硬往前推。
这样的实现,在“先做出来”这件事上当然很有效。但它最大的问题是:它对变化的适应性很弱。
只要规则稍微复杂一点,机制稍微调整一点,系统马上就开始变得脆弱。这里改一点,那里就漏一点;一个 buff 的变化可能影响多个模块;一个技能结算逻辑的新增可能把原来顺畅的结算逻辑打乱。
而人类里比较有经验的设计者,在面对这种系统时,往往会主动去设计一些更科学的机制,比如更清晰的状态管理、更稳定的模块边界、更抽象的 effect system(效果结算机制),去保证不同模块、不同技能、不同种族之间不会彼此污染,不会互相踩踏。
也就是说,人会考虑:
- 以后怎么扩展
- 不同机制如何解耦
- 什么地方应该抽象
- 什么地方不能只图眼前省事
但 AI 默认不会 主动 往这个方向走。
它更倾向于选择最直接、最常见、最局部顺滑的方式。因为从它的生成机制来看,这种路线最容易快速成立,也最符合“下一步应该怎么写”的统计规律。
除非你非常明确地告诉它:
- 这里要考虑扩展性
- 这里要使用某种高级架构
- 这里要避免高耦合
- 这里要为未来变化预留结构
否则它通常不会主动把解决方案往更高质量的方向推进。
也就是说,AI 很擅长把一个东西做出来,但不擅长主动把它做深、做稳、做得经得起变化。如果你不主动提出这些要求,它不会自己想出来。
当然,也有人会反问:AI 既然能在大量普通样本中呈现出超出预期的智能,为什么不能自己生成更高质量的方案?
问题不在于它是否“有这个潜力”,而在于这种潜力能否在具体协作中被稳定地调动出来。现实往往是:如果你不能明确提出更高要求,它就更容易停留在那个统计意义上最顺手、最常见、也最平庸的解法里。
所以我越来越喜欢用一个简单的比喻来理解这件事:
AI 可以帮你做一碗面,但那碗面里的盐,还是得你自己放。
这个“盐”是什么?是经验,是判断,是审美,是取舍,是洞察,是品味,是你对问题真正深层结构的理解。没有这些,最后出来的东西虽然完整,但没有劲道;虽然可用,但没有灵魂;虽然像那么回事,却很难真正超出一般水平。
所以第二点,我想表达得直接一些:
AI 很擅长产出通用答案,但它不具备天然的定制化思维,也没有主动把方案质量往更高层次推进的能力。
它可以帮你完成事情,但它很难替你把事情做得真正优秀。能不能把“可用”推进到“出色”,最后还是取决于使用它的人。
三、AI 本质上是在做“下一步预测”,不是“目标驱动”
第三点,是我觉得最底层的一点。
为什么 AI 容易过度自信?为什么它更偏向通用解?为什么它看起来总是在顺着你往前走,但最后可能把事情越带越偏?
因为它的本质,并不是一个真正 以目标为中心 的系统。它更像是在根据当前上下文,预测“下一步最像合理回答的内容是什么”。
这个能力当然很强,所以我们才会觉得它特别顺。你说一句,它接一句;你给一点上下文,它能迅速续写、补全、解释、延伸,看起来始终在往前推进。
但问题也恰恰出在这里:
它擅长的是局部合理,不是全局正确。
它很会接着往下说,但它未必真的在朝着你的真实目标前进。它强调即刻响应,却并不天然具备对行为意图的稳定把握。
它不会自动替你守住边界,也不会自动替你搭好框架。
如果使用 AI 的人自己没有一个清晰的框架,没有明确的目标感,没有持续校正方向的能力,那么整个过程就很容易变成这样:你问一句,它接一句;你顺着它再问一步,它再往前接一步;整个过程非常流畅、非常丝滑,但你们其实已经在不知不觉中偏离了真正的问题。
这也是为什么很多人使用 AI,会有一种很典型的体验:一开始觉得效率极高,推进飞快;但用着用着开始混乱,最后回头一看,真正的问题并没有解决,甚至连思路都已经被带偏了。
问题并不在于 AI 没有努力,而在于它并不真正负责“替你守住目标”。这个责任依然在使用它的人身上。
所以,驾驭 AI 的关键,从来不只是会提问,而是你自己要先有清晰的思维框架。你要知道自己到底要什么,什么是边界,什么是标准,什么是优先级,什么时候该收,什么时候该改方向。否则 AI 就很容易从“助手”变成“牵引者”,最后不是你在使用它,而是你在被它的输出带着走。
所以第三点,我想收敛成一句话:
由于 AI 本质上是对下一步的预测,强调即刻响应,对行为意图的判断是不够的;如果没有主动构建框架的能力,它就很可能在不知不觉中跑偏,然后把人一起带偏。
结语:AI 是放大器,不是方向盘
把这三点放在一起,很容易得到一个强烈的感受:
AI 当然非常有用,但它不是替你思考的东西。它更像一个放大器。
它会放大你的效率,也会放大你的问题; 会放大你的判断力,也会放大你的盲区; 会放大你的结构感,也会放大你的混乱。
如果你没有判断问题是否成立的能力,它会让你在错误的方向上空转得更快;
如果你没有把通用方案推进成高质量方案的能力,它给你的大多只是平庸但完整的结果;
如果你没有主动构建框架的能力,它就可能在不知不觉中跑偏,然后把你一起带偏。
所以最后真正重要的,不是 AI 会不会做,而是你能不能驾驭它。
驾驭 AI 的人,需要有清晰的思维框架。
你越会判断,它越有价值。 你越会思考,它越像杠杆。
AI 的上限,很多时候不是由模型决定的,而是由使用它的人决定的。
如果你把判断和方向感都交给它,它就很容易用一种非常流畅、非常积极、也非常自信的方式,把你带到错误的地方去。
更值得警惕的是,当 AI 被用来不断补强你原有的判断,而不是帮助你校验问题时,它也可能把你困在一个不断自我强化的反馈回路里。
不要用 AI 增加你的观点的说服力,那样你只会陷入自我强化的回音壁。
使用 AI 放大你的能力,但不要轻易被驯化,失去判断力。
AI 不是用来代替思考的东西,而是应该帮你变得更善于思考的东西。
E-2603 (Lorenzo’s Library)
Creative Commons BY-NC-ND 4.0