哈斯日志
纪录我们在网路上奔波的历程!
AI读Claude Code:一段代码万种视角
星期四, 四月 02, 2026

所有拿到Claude code泄露的源码的人,为什么用不同的AI或者相同的AI写出来的分析、总结、思考完全不同,甚至相去深远。同一个客观对象,为什么会产生不同但不冲突的认知。

这些分析深浅与效用不一,但很少相互对立。
LLM在理解、分析、生成过程中,如何影响这种差异,如何能精准地嵌入用户自己的认知、习惯、能力、偏好、知识结构、目标预期,进而产生的这种百花齐放的精彩。
如何让“你的AI更像你代理你来执行“你的”理解和分析,又如何让“你的AI跳出“你的约束”更深入、更全面、更有价值的挖掘出更多有价值的知识、信息,这是我的思考和分析。
为什么“同一源码约束下,每个人差异很大
每个人的差异不是因为“理解不同”,而是因为每个人在问不同的问题,尽管“看起来很像”。差异不是来自“看什么”,而是你先看到什么,你把它当成什么,你什么时候觉得“懂了”。

1)注意力的偏置-你先看到什么

同一份源码,不同人“看到不同”

每个人的大脑/模型,对信息的“显著性排序”不同

例如:

  • 有人一眼看到“架构分层”
  • 有人一眼看到“具体实现技巧”
  • 有人一眼看到“潜在能力”

这不是选择,而是自动发生的偏置


2)意义的投射-你把它当成什么

代码本身不包含意义,意义来自观察者的投射:

  • 你把它当“系统设计”
  • 别人把它当“工具实现”
  • 有人把它当“产品能力”

所以差异是:

你在用什么“问题”去解释它


3)收敛的标准-你什么时候觉得“懂了”。

  • 有人觉得能解释运行逻辑就结束
  • 有人觉得能抽象出模式才结束
  • 有人觉得能迁移应用才结束

所以“你看到的”本质是:

能运行、能解释、能抽象、能迁移,对应不同的停止条件。

从技术视角看是来自

如何取样 + 如何解释 + 如何停止


1)理解阶段:不是读源码,而是“取样源码”

每个人实际做的是:

源码 →(选择子集)→ 进入理解

这个“选择子集”的函数由你或者你使用的工具决定:

变量
具体体现
认知习惯
先看入口 / 先看核心类 / 先看调用链
能力
能否读懂抽象层 vs 只能看具体实现
知识结构
是否识别设计模式、框架意图
偏好
更关注优雅性 or 性能 or 可扩展
目标预期
是为了复现 / 优化 / 投资判断

2)分析阶段(你的预期、AI的推理):是“构建解释图”

核心:节点选择 + 关系建立

例如同一段代码:

  • A:构建“模块依赖图”
  • B:构建“能力抽象图”
  • C:构建“商业能力映射”
  • D:构建“能力方法论抽象”

3)停止条件(极关键,常被忽略)

为什么有人“浅”,有人“深”?

因为:何时认为“已经理解”

不同:

停止条件
初级
能跑通
中级
能解释
高级
能抽象
顶级
能迁移

深度差异,本质是停止函数不同


4)模型价值观和知识经验:

LLM内置的是:

  • 主流工程范式
  • 主流安全边界
  • 主流“合理解释”

表现为:

模型倾向输出“统计上最合理的解释”

这会导致:

  • 不同人 → 不同方向
  • 同一模型 → 往“平均合理解”收敛
为什么不会“完全相悖”

源码本身是“强结构约束”

Claude Code 这种对象:

  • 有工程结构
  • 有函数逻辑
  • 有设计模式

→ 它天然限制了解释空间:

可解释集合 << 任意文本集合



本质是:

同一约束空间下的不同投影


人与模型共享相似的知识结构与范式

  • 编程范式(面向对象、模块化等)
  • 工程常识(解耦、复用、扩展性)
  • 语言语义本身

所以本质是:

你们在同一个“解释空间”里,只是位置不同

这就是为什么:

  • 可以很不同
  • 但不会完全对立
差异真正产生在哪一层

理解阶段(Interpretation)

核心差异:

你“把源码当成什么”

举例:

视角
理解结果
工程师
模块实现
产品经理
能力边界
投资人
技术壁垒

分析阶段(Reasoning)

差异体现在:

你选择解释哪一部分 + 如何连接

即:

  • 哪些变量被纳入
  • 哪些关系被建立
  • 哪些被忽略


生成阶段(Expression)

这里只是:

把前面的路径“展开”

差异最小

如何精准嵌入“你”

“像你”不是复制你,你的认知是如何“进入解释过程”的,如何让AI从“你”提出的问题出发

你并非影响答案,而是在改变问题本身。

LLM在做的事情是:

给定问题 → 找解释

而你做的事情是:

无意识地改写了“问题”

不同人对同一源码提出不同问题,从而进入不同解释路径。

所以本质是:

你是谁,决定了你在问什么问题,而不是你怎么回答问题

  1. 优先关注你会注意的东西
  2. 用你习惯的问题去解释
  3. 在你会停的地方继续往前一点

那如何“超越你”


本质矛盾:

你的认知 = 你的路径
但路径一旦固定,就会错过别的路径


所以“超越”不是更深,而是:

进入你不会进入的路径


怎么做到(机制层,不是方法):

1)改变“问题”

强行问:

  • 如果我完全不从“架构”理解,会看到什么?
  • 如果这是一个攻击者在看,会看到什么?
  • 如果这是一个完全不同领域,会怎么理解?

2)延迟“收敛”

你本来在“理解”为止就停了
让AI继续:

  • 再抽象一层
  • 再迁移一层
  • 再反过来质疑一层

3)引入“非你”

本质是:

让另一个“认知结构”介入

不是更多信息,而是:

  • 不同问题
  • 不同关注点
  • 不同停止条件
超越的关键在于:改变问题、延迟收敛、引入不同认知结构。
认知差异不在答案,而在默认提出的问题;控制AI,本质是控制其问题起点,以及是否允许偏离。
四月 02, 2026 · loverty
微信分享二维码

用微信扫描二维码
分享此文章

0条评论

发表评论

<< Home

AI助手

你好!我是哈斯日志的AI助手

我可以基于当前页面内容回答你的问题。

💡 首次使用可能需要等待模型加载(约20-30秒)

有什么想了解的吗?
刚刚