哈斯日志
纪录我们在网路上奔波的历程!
LLM如何从技术创新概念,走向“有用的工具”
星期日, 四月 12, 2026

大语言模型、大模型 正在能力更强、效用更强,却在变得“变便宜”

这是一个表面上看似矛盾、但在产业内部并不陌生的现象。

一方面,AI 的能力在指数级提升:
模型更强、推理更快、上下文更长、成本持续下降,token 价格不断被压缩,甚至在大量平台中已经呈现“事实性免费”。

另一方面,用户的付费意愿却并未同步上升。
无论是编程、写作、研究、分析,AI 的“性价比”客观上已经高到离谱,但在多数市场中,订阅价格却被锚定在一个非常低的区间——往往不超过一杯奶茶。

于是出现一种非常拧巴的状态:
AI 越来越像一种“不可或缺的能力”,但它在交易体系中的位置,却依然接近“可有可无的工具”。

这并不是某一家公司的问题,而是整个 AI 商业化阶段性必然出现的结构性矛盾。


问题不在定价,而在“我们到底在为什么在付费”

如果从 token 或算力成本角度讨论定价,几乎注定得不出答案。

因为 token 本身并不是用户真正愿意为之付费的对象。
正如我们不会为“电流本身”或“HTTP 请求次数”付费一样。

  • 没有人为“HTTP 请求次数”付费

  • 但会为:

    • 运行时 SLA

    • 数据主权

    • 系统稳定性

    • 商业可预测性

    • 付费

从用户视角看,付费从来不是为技术,而是为三类东西之一:

  • 确定的体验改善

  • 可预期的价值回报

  • 进入某种机会或体系的资格

而当前 AI 的问题在于:
它的产出价值是高度真实的,但并没有被稳定地嵌入到人的价值创造与结算体系中

身边不少朋友都反馈购买过一些应用,比如研究报告、ppt之类的,产出结构都叫不离手,能做到六七成,还得自己上手,所以就回退了,使用免费的+自己手工搓。

有用又没那么智能,不足以形成全委托。

换句话说,AI 已经在“帮你做事”,但它做的这些事,还没有系统性地进入你的账本。


从“概念”到“工具”,再到“基础设施”的三次跃迁

1. 从技术创新概念,到“有用的工具”

这是 AI 已经完成的阶段。

在这一阶段,AI 的价值来自于:

  • 新奇性

  • 通用能力

  • 单点效率提升

  • 领域泛化

用户愿意付费,是因为“这个东西我以前做不到,或者做得很慢”。

但这一阶段的定价逻辑,本质是能力溢价,而能力一旦扩散、同质化,价格就必然坍塌。

这也是为什么:
当“免费 + 还不错”的 AI 工具出现后,原本高溢价的订阅模型会迅速承压。


2. 从“有用的工具”,到“高频依赖的系统部件”

这是大多数 AI 产品正在但尚未完全跨过的门槛

关键不在于功能更多,而在于:

AI 是否被嵌入到了一个不可跳过的流程节点中。

当 AI 只是“我想用的时候去用”,它永远只是工具;
当 AI 的输出直接进入:

  • 决策流程

  • 审批链路

  • 协作系统

  • 交付结果

它才开始具备“系统性存在感”。

此时,用户付费的动机开始发生变化:
不再是“它有多聪明”,而是“没有它,我的流程会断”。


3. 从系统部件,到“基础设施”

基础设施有一个非常明确的特征:

你不会每天意识到它的存在,但一旦失效,代价极高。

AI 要走到这一步,必须完成三件事:

  1. 从资源计价,转向结果与责任计价
    Token / Credit 只是过渡形态,真正稳定的付费锚点,是“任务是否完成”“决策是否被采用”“风险是否被降低”。

  2. 进入合约与制度层面
    当 AI 调用、引用、决策支持开始写入合同、审计系统和合规框架,AI 才真正成为“生产要素”。

  3. 形成生态级的替代成本
    数据沉淀、协作惯性、流程绑定,使得“不用 AI”本身变成一种高成本选择。

到这一步,AI 的定价才不再需要解释。

AI 正在从“商品”,转向“基础能力”。

真正能够持续收费的,从来不是“消耗了多少算力”,而是:

  • 你是否获得了稳定收益

  • 是否降低了不确定性

  • 是否进入了一个原本无法进入的价值网络

这也是为什么,未来的 AI 定价一定会越来越“看不懂 token”,却越来越“看得懂业务”。

Openclaw这样的大量的agentic应用,作为token生态重要跑分工具,昭示着对于碎片化场景、低价值高频应用场景AI能力的渗透和token经济的融合在显著深入。

AI 何时会被写进个人生产创造价值链,嵌入组织、交易与责任结构之中。

那一刻,它不再需要被反复证明“值不值”,
因为它已经像水、电、网络一样,
成为默认存在,再成为“社会基础设施”,还有一段培育的周期,但是已经看得到可能性了。

查看全文 →
四月 12, 2026 · loverty ·
AI读Claude Code:一段代码万种视角
星期四, 四月 02, 2026

所有拿到Claude code泄露的源码的人,为什么用不同的AI或者相同的AI写出来的分析、总结、思考完全不同,甚至相去深远。同一个客观对象,为什么会产生不同但不冲突的认知。

这些分析深浅与效用不一,但很少相互对立。
LLM在理解、分析、生成过程中,如何影响这种差异,如何能精准地嵌入用户自己的认知、习惯、能力、偏好、知识结构、目标预期,进而产生的这种百花齐放的精彩。
如何让“你的AI更像你代理你来执行“你的”理解和分析,又如何让“你的AI跳出“你的约束”更深入、更全面、更有价值的挖掘出更多有价值的知识、信息,这是我的思考和分析。
为什么“同一源码约束下,每个人差异很大
每个人的差异不是因为“理解不同”,而是因为每个人在问不同的问题,尽管“看起来很像”。差异不是来自“看什么”,而是你先看到什么,你把它当成什么,你什么时候觉得“懂了”。

1)注意力的偏置-你先看到什么

同一份源码,不同人“看到不同”

每个人的大脑/模型,对信息的“显著性排序”不同

例如:

  • 有人一眼看到“架构分层”
  • 有人一眼看到“具体实现技巧”
  • 有人一眼看到“潜在能力”

这不是选择,而是自动发生的偏置


2)意义的投射-你把它当成什么

代码本身不包含意义,意义来自观察者的投射:

  • 你把它当“系统设计”
  • 别人把它当“工具实现”
  • 有人把它当“产品能力”

所以差异是:

你在用什么“问题”去解释它


3)收敛的标准-你什么时候觉得“懂了”。

  • 有人觉得能解释运行逻辑就结束
  • 有人觉得能抽象出模式才结束
  • 有人觉得能迁移应用才结束

所以“你看到的”本质是:

能运行、能解释、能抽象、能迁移,对应不同的停止条件。

从技术视角看是来自

如何取样 + 如何解释 + 如何停止


1)理解阶段:不是读源码,而是“取样源码”

每个人实际做的是:

源码 →(选择子集)→ 进入理解

这个“选择子集”的函数由你或者你使用的工具决定:

变量
具体体现
认知习惯
先看入口 / 先看核心类 / 先看调用链
能力
能否读懂抽象层 vs 只能看具体实现
知识结构
是否识别设计模式、框架意图
偏好
更关注优雅性 or 性能 or 可扩展
目标预期
是为了复现 / 优化 / 投资判断

2)分析阶段(你的预期、AI的推理):是“构建解释图”

核心:节点选择 + 关系建立

例如同一段代码:

  • A:构建“模块依赖图”
  • B:构建“能力抽象图”
  • C:构建“商业能力映射”
  • D:构建“能力方法论抽象”

3)停止条件(极关键,常被忽略)

为什么有人“浅”,有人“深”?

因为:何时认为“已经理解”

不同:

停止条件
初级
能跑通
中级
能解释
高级
能抽象
顶级
能迁移

深度差异,本质是停止函数不同


4)模型价值观和知识经验:

LLM内置的是:

  • 主流工程范式
  • 主流安全边界
  • 主流“合理解释”

表现为:

模型倾向输出“统计上最合理的解释”

这会导致:

  • 不同人 → 不同方向
  • 同一模型 → 往“平均合理解”收敛
为什么不会“完全相悖”

源码本身是“强结构约束”

Claude Code 这种对象:

  • 有工程结构
  • 有函数逻辑
  • 有设计模式

→ 它天然限制了解释空间:

可解释集合 << 任意文本集合



本质是:

同一约束空间下的不同投影


人与模型共享相似的知识结构与范式

  • 编程范式(面向对象、模块化等)
  • 工程常识(解耦、复用、扩展性)
  • 语言语义本身

所以本质是:

你们在同一个“解释空间”里,只是位置不同

这就是为什么:

  • 可以很不同
  • 但不会完全对立
差异真正产生在哪一层

理解阶段(Interpretation)

核心差异:

你“把源码当成什么”

举例:

视角
理解结果
工程师
模块实现
产品经理
能力边界
投资人
技术壁垒

分析阶段(Reasoning)

差异体现在:

你选择解释哪一部分 + 如何连接

即:

  • 哪些变量被纳入
  • 哪些关系被建立
  • 哪些被忽略


生成阶段(Expression)

这里只是:

把前面的路径“展开”

差异最小

如何精准嵌入“你”

“像你”不是复制你,你的认知是如何“进入解释过程”的,如何让AI从“你”提出的问题出发

你并非影响答案,而是在改变问题本身。

LLM在做的事情是:

给定问题 → 找解释

而你做的事情是:

无意识地改写了“问题”

不同人对同一源码提出不同问题,从而进入不同解释路径。

所以本质是:

你是谁,决定了你在问什么问题,而不是你怎么回答问题

  1. 优先关注你会注意的东西
  2. 用你习惯的问题去解释
  3. 在你会停的地方继续往前一点

那如何“超越你”


本质矛盾:

你的认知 = 你的路径
但路径一旦固定,就会错过别的路径


所以“超越”不是更深,而是:

进入你不会进入的路径


怎么做到(机制层,不是方法):

1)改变“问题”

强行问:

  • 如果我完全不从“架构”理解,会看到什么?
  • 如果这是一个攻击者在看,会看到什么?
  • 如果这是一个完全不同领域,会怎么理解?

2)延迟“收敛”

你本来在“理解”为止就停了
让AI继续:

  • 再抽象一层
  • 再迁移一层
  • 再反过来质疑一层

3)引入“非你”

本质是:

让另一个“认知结构”介入

不是更多信息,而是:

  • 不同问题
  • 不同关注点
  • 不同停止条件
超越的关键在于:改变问题、延迟收敛、引入不同认知结构。
认知差异不在答案,而在默认提出的问题;控制AI,本质是控制其问题起点,以及是否允许偏离。
查看全文 →
四月 02, 2026 · loverty ·

AI助手

你好!我是哈斯日志的AI助手

我可以基于当前页面内容回答你的问题。

💡 首次使用可能需要等待模型加载(约20-30秒)

有什么想了解的吗?
刚刚