所有拿到Claude code泄露的源码的人,为什么用不同的AI或者相同的AI写出来的分析、总结、思考完全不同,甚至相去深远。同一个客观对象,为什么会产生不同但不冲突的认知。
LLM在理解、分析、生成过程中,如何影响这种差异,如何能精准地嵌入用户自己的认知、习惯、能力、偏好、知识结构、目标预期,进而产生的这种百花齐放的精彩。如何让“你的”AI更像你代理你来执行“你的”理解和分析,又如何让“你的”AI跳出“你的约束”更深入、更全面、更有价值的挖掘出更多有价值的知识、信息,这是我的思考和分析。每个人的差异不是因为“理解不同”,而是因为每个人在问不同的问题,尽管“看起来很像”。差异不是来自“看什么”,而是你先看到什么,你把它当成什么,你什么时候觉得“懂了”。1)注意力的偏置-你先看到什么
同一份源码,不同人“看到不同”
每个人的大脑/模型,对信息的“显著性排序”不同
例如:
这不是选择,而是自动发生的偏置
2)意义的投射-你把它当成什么
代码本身不包含意义,意义来自观察者的投射:
所以差异是:
你在用什么“问题”去解释它
3)收敛的标准-你什么时候觉得“懂了”。
所以“你看到的”本质是:
能运行、能解释、能抽象、能迁移,对应不同的停止条件。
从技术视角看是来自如何取样 + 如何解释 + 如何停止
1)理解阶段:不是读源码,而是“取样源码”
每个人实际做的是:
这个“选择子集”的函数由你或者你使用的工具决定:
2)分析阶段(你的预期、AI的推理):是“构建解释图”
核心:节点选择 + 关系建立
例如同一段代码:
3)停止条件(极关键,常被忽略)
为什么有人“浅”,有人“深”?
因为:何时认为“已经理解”
不同:
深度差异,本质是停止函数不同
4)模型价值观和知识经验:
LLM内置的是:
表现为:
这会导致:
源码本身是“强结构约束”
Claude Code 这种对象:
→ 它天然限制了解释空间:
本质是:
人与模型共享相似的知识结构与范式
所以本质是:
你们在同一个“解释空间”里,只是位置不同
这就是为什么:
理解阶段(Interpretation)
核心差异:
举例:
差异体现在:
即:
生成阶段(Expression)
这里只是:
把前面的路径“展开”
差异最小
如何精准嵌入“你”
“像你”不是复制你,你的认知是如何“进入解释过程”的,如何让AI从“你”提出的问题出发你并非影响答案,而是在改变问题本身。
LLM在做的事情是:
给定问题 → 找解释
而你做的事情是:
无意识地改写了“问题”
不同人对同一源码提出不同问题,从而进入不同解释路径。
所以本质是:
你是谁,决定了你在问什么问题,而不是你怎么回答问题
- 优先关注你会注意的东西
- 用你习惯的问题去解释
- 在你会停的地方继续往前一点
那如何“超越你”
本质矛盾:
你的认知 = 你的路径
但路径一旦固定,就会错过别的路径
所以“超越”不是更深,而是:
进入你不会进入的路径
怎么做到(机制层,不是方法):
1)改变“问题”
强行问:
2)延迟“收敛”
你本来在“理解”为止就停了
让AI继续:
3)引入“非你”
本质是:
让另一个“认知结构”介入
不是更多信息,而是:
超越的关键在于:改变问题、延迟收敛、引入不同认知结构。认知差异不在答案,而在默认提出的问题;控制AI,本质是控制其问题起点,以及是否允许偏离。
发表评论