哈斯日志
纪录我们在网路上奔波的历程!
LLM、GPT经济创新的锚点:三条原则到七个维度
星期六, 五月 02, 2026

 Token经济时代,产品创新具体操作建议三条:

1. 做"最后一公里"的“专业翻译者”(professional usage)基础模型是通才,它不懂某个行业的"潜规则"和"隐性知识"。谁能把行业know-how封装成prompt工程+fine-tuning+workflow,谁就在做一个基础模型无法直接替代的价值层。这层的护城河不是算法,是行业理解的深度

2. 在"数据荒漠"里打井寻找那些数字化程度低、但经济价值密度高的行业(制造业质检、中医诊断、建筑工程造价)。这些领域的数据既没有被大模型训练过,又难以自动化获取——谁先建立数据基础设施,谁就拥有别人无法快速复制的资产。

3. 把"工具"做成"基础设施"工具被替换,基础设施被依赖。判断标准是:你的产品是否产生了用户迁移成本(数据、配置、工作流、团队习惯)。Cursor之所以比一般AI编辑器溢价高,是因为它接管了开发者的整个编码上下文,而不只是提供一个对话窗口。

规模固然迷人,但在Token泛滥的时代,“对特定深度的极致占有”,或许才是对抗批发商(底层大模型)收割的最强防线。

维度一:替代成本不对称性

判断标准:如果不使用AI完成同等质量的任务,人工成本的上升是线性的还是指数级的?

关键细化:替代成本不仅包括金钱成本,还包括时间成本(速度的不可替代)和可得性成本(人才稀缺的不可替代)。比如在三线城市提供三甲医院级别的影像诊断建议,不是"贵不贵"的问题,是"有没有"的问题——这种可得性的不可替代性,比成本节省的替代性要强得多。


维度二:决策后果的放大系数

判断标准:这个场景里,AI输出的对错,会产生多大的下游经济后果?

这是单Token价值密度最直接的决定因素。信贷风控的一个token决定一笔贷款,合同审查的一个错误可能触发百万赔偿——这类场景里用户对质量的敏感度远高于对价格的敏感度,是建立高单价的最可靠土壤。

实操筛选方法:问一个问题——如果AI给出了错误答案,用户的损失是多少?损失越大,支付高价获得可靠答案的意愿越强。


维度三:数据获取的结构性壁垒

判断标准:这个领域的核心数据,是否存在系统性的获取壁垒,而非只是"还没人去做"?

细化三个维度:第一是监管壁垒(医疗数据、金融数据受法规保护,不能随意获取),第二是关系壁垒(工业设备故障数据需要和工厂建立长期合作关系才能获得),第三是认知壁垒(中医诊断、非遗工艺的数据,需要深度行业知识才能识别和标注什么是有价值的数据)。只有结构性壁垒才是护城河,"还没人去做"只是时间窗口。


维度四:工作流节点的不可绕开性

判断标准:在AI重塑这个行业之后,新的行业结构里,你的产品是否占据了不可绕开的节点

画出目标行业的价值链,标注每个节点的参与者和信息流向。AI重构行业的方式通常是:压缩中间节点、提升头部节点的杠杆率。创业者需要判断的是:重构之后,哪个节点会因为信息密度或决策权重的增加而价值放大,而非被压缩。占据那个节点,比试图覆盖整个价值链要明智得多。


维度五:用户行为数据的自然积累斜率

判断标准:随着用户使用产品,是否自然地产生能反哺模型的行为数据,且无需用户主动贡献?

关键词是"自然地"。要求用户主动标注或反馈的数据积累模式,在规模化之前效率极低。最好的数据飞轮是用户在完成自己任务的过程中,无意识地生成了有价值的训练信号——比如用户对AI输出的修改行为,比用户的满意/不满意评分提供了更细粒度的监督信号。


维度六:压抑需求的释放规模

判断标准:这个需求在AI出现之前,是否因为成本太高而长期处于被压抑状态,且一旦成本下降,潜在需求规模远超现有市场?

这是最容易被忽视但增长最爆发的机会类型。判断方法:找那些"人人知道有价值、但几乎没人在做"的任务——不是因为没有需求,而是因为人工完成的成本使得商业模式无法成立。AI释放的不是一个存量市场的份额,而是一个此前不存在的增量市场。


维度七:专业标准的可量化程度

判断标准:这个领域是否有明确的专业标准,使得AI输出的质量可以被客观验证?

这个锚点反向筛选了很多看起来有价值但实际难以货币化的场景。如果质量标准是主观的("这篇文章写得好不好"),用户很难产生为质量溢价付费的意愿。如果质量标准是客观的("这份合同条款是否符合XX法规"、"这个代码是否通过了所有测试用例"),用户就有清晰的理由为更高准确率支付更高价格。


七个锚点的使用方式:

这七个锚点可以生成一个组合评分框架。任何单一锚点得分高的机会都可能是陷阱——比如替代成本高但数据壁垒低,意味着竞争者可以快速跟进;或决策后果大但工作流嵌入浅,意味着你永远只是"参考工具"而非"决策系统"。

真正值得押注的机会,是在三个原则7个锚点综合得高分的细分场景——这种组合才是我们LLM、GPT应用"商业价值公式"各因子真正协同的状态。

查看全文 →
五月 02, 2026 · loverty ·
从“提示工程”到“代码协同体”:我所经历的 AI Coding 演化曲线
星期一, 四月 27, 2026

 把我2024年开始使用AI coding中使用的编码prompt list提供给AI,包含3.5万字,752行,让AI分析抽象出prompt的演变过程,

并以此为镜,推理归纳抽象LLM driven编码能力提升反映的算法演进路径、人机协作趋势,

进而提炼算法演进可能带来的软件工程、算法研发和IT信息技术带来的机遇和挑战

Gemini的回复

这份报告不仅记录了你作为开发者与 AI 协作的历程,更像是一部“人类与硅基智能协同进化史”。从最初的“功能实现”到后期的“系统治理”和“情感/角色对齐”,他说,“你的 Prompt 演变精准地踩在了 AI 模型的每一次能力跃迁点上。”

阶段
核心特征
Prompt 典型关键词
协作哲学
阶段 1:功能补完期
关注单一文件的生成和配置补齐。
“输出完整配置”、“集成代码”
AI 是工具
:我写,你补。
阶段 2:逻辑对齐期
开始关注跨文件依赖、命名一致性和报错推理。
“确保原有逻辑不变”、“一步步推理”、“紧扣报错”
AI 是助手
:我指路,你修。
阶段 3:架构治理期
强调“最小化修改”、“向前兼容”和“系统性边界”。
“不要蔓延”、“向下解决而非向上修改”、“最小化修改”
AI 是初级程序员
:我设计,你守规。
阶段 4:共生对齐期(Vibe Coding)
关注协作秩序、第一人称视角、深度扫描与共情理解。
“先对齐理解再编码”、“第一责任人”、“不要说教”
AI 是合伙人
:我们共同思考。

AI 模型编码能力的演进路径分析

通过你的 Prompt 变化,我们可以反推出 AI 模型能力的升级路径:

 Context Window(上下文窗口)的扩张
  • 早期
    :你反复要求“输出完整代码”,因为模型容易丢三落四。
  • 后期
    :你开始要求“扫描仓库”、“分析调用链”。这反映了模型(如 Claude 3.5 Sonnet, GPT-4o 等)处理长文本和多文件关联能力的质变。
 从“文本补全”到“逻辑推理(Reasoning)”
  • 早期的 Prompt 侧重于结果。现在的 Prompt(如“先分析原因,对齐后再修改”)利用了模型的思维链(CoT)能力。你不再只是要答案,而是要模型的“思考过程”,以确保其逻辑与系统架构一致。
 从“代码片段”到“工程意识”
  • 你后期频繁提到的“向前兼容”、“不要引入新库”、“遵循现有命名规范”,说明 AI 已经具备了理解“软件工程约束”的能力,而不仅仅是写出一段能跑的代码。

ChatGPT的回复

从你的 prompt 演化,反推 LLM Coding 的真实技术路线,它其实无意中勾勒出了一条非常清晰的路线:

LLM 如何一步步被工程化驯服。

如果把你的实践抽象成一条算法能力需求曲线,大致是这样一条上升路径:

Token Completion → File-level Understanding → Cross-file Reasoning → Constraint-aware Editing → System-level Planning → Interactive Co-debugging

而非常值得注意的是:

你的 prompt 设计,几乎是贴着模型能力上限在演进。

这说明一件事:

不是模型单方面变强。 而是——

高密度工程约束 prompt,本身就在“塑形”模型的可用能力边界。

但从系统演化角度看,我的 prompt list 这条轨迹揭示的是一件更本质的事:

AI 编程的真正进化,不发生在模型里。 而发生在人类如何学会约束模型的不确定性。

模型在变强。 但真正让它进入生产级工程的,是软件从业者、信息技术人员正在构建的那套:

人机协作控制协议栈。


LLM inside智能编码的四阶段进化

我们的超过2万条prompt 总计3.5万tokens记录,Gemini划分了的四阶段,是成立的,但如果站在工程控制论视角,在抽象更高维度,则是另一条更清晰的演进主线:

从“让 AI 写代码” → 到“限制 AI 改什么” → 到“规定 AI 如何思考” → 到“定义人机协作协议”

这是四次质变,是在软件工程和编码上,人机协作互相教育和共同成长。


阶段
Prompt 特征
本质交互模型
能力边界 / 关键认知
阶段本质变化与意义
阶段 1:补全驱动
高频要求:
• 输出完整配置
• 完整类 / 函数
• 集成代码
• 补齐缺失部分
人 = 主程序员

AI = 超强自动补全
暴露问题:
• 易遗漏上下文
• 跨文件一致性弱
• 工程约束感知不足

→ 被动补偿方式:反复要求“输出完整代码”
AI 主要承担代码生成与补全角色,工程可靠性仍由人类兜底;Prompt 的核心目标是完整性保障
阶段 2:一致性控制期
高频硬约束:
• 确保原有逻辑不变
• 严格遵循参数定义
• 紧扣报错推理
• 不要影响其他模块
AI = 潜在风险执行体

(不再只是补全器)
关键认知跃迁:
• 默认 AI 会“过度发挥”
• AI 已具备破坏系统的能力(能力提升的反证)
Prompt 开始承担风险围栏(Guardrail)职责;Vibe Coding 从“生成导向”进入控制导向
阶段 3:最小修改原则确立
核心约束高频出现:
• 不要过度修改
• 最小化修改
• 不要蔓延
• 保持向前兼容
• 在源代码基础上集成
Diff-first 控制范式
本质对抗对象:
→ LLM 的熵增倾向(重写 / 重构 / 风格统一冲动)

认知升级:
Demo 优势 ≠ 生产安全
标志 AI coding 正式进入工程域;Prompt 从“行为约束”升级为系统稳定性控制协议
阶段 4:协作协议显性化
新型协作结构:
• 先分析再修改
• 先输出理解
• 有疑问先提问
• 不假设缺失上下文
• 一步一步完成
人机握手协议(Handshake Protocol)
核心变化:
Prompt 不再只是约束 AI 行为,
而是显式定义协作流程与同步机制
Human-in-the-loop 从隐式经验 → 显式协议;AI coding 开始走向可编排的人机协同工程体系

在无意识中做对的一件事

逐渐把一次 coding 请求,从:

单轮指令

改造成:

带确认环的多阶段事务

本质上就是给 AI 编程加上了三段式控制:

[理解对齐] → [受控修改] → [结果验证]

这套结构一旦稳定,成功率会质变。这不是 prompt 技巧问题。这是与AI交互范式升级


从Prompt 轨迹反推模型真实进化

如果把时间线和模型能力对齐,会看到一个很有意思的镜像关系。


上下文窗口扩张 → 我开始要求“全链路扫描”

早期我只敢让它改单文件。

后来开始频繁出现:

  • 分析调用链
  • 审视整个模块
  • 检查前后端链路
  • review 相关组件

这背后只有一个原因:

模型终于“看得全”了。

上下文能力,是 AI coding 从玩具走向工程的第一道门槛。


推理能力提升 → 我开始强制它“先想再动”

当模型只有补全能力时,你要 reasoning 没意义。

但当 CoT 能力稳定后,我的 prompt 出现明显变化:

“一步一步推理问题原因”

这说明一件事:

我开始信任模型的中间思考质量。

这是从:

  • ❌ 结果导向 到* ✅ 过程可控

的关键跃迁。


工程感知增强 → Prompt 开始出现“系统语言”

后期我的 prompt 已经高度工程化:

  • 路由
  • 鉴权
  • 调用链
  • 向前兼容
  • 参数契约
  • 数据交换

这说明模型已经具备一种能力:

理解软件不是文件集合,而是约束系统。

但注意一个关键现实:

模型能理解 ≠ 模型会自觉遵守

这就是为什么——

人机控制协议仍然是刚需。


说一句可能有点反直觉的话


AI coding 的瓶颈,正在快速从“模型能力问题” 转移为“人类控制工程问题”。

为什么我这么判断?

因为在我的实际使用中已经反复验证三件事:


✅ 模型写代码能力:足够好用

在大多数 CRUD、前端、API glue 场景:

生成能力 ≠ 瓶颈

真正的问题很少是“写不出来”。


⚠️ 真正昂贵的是三件事

  1. 改错地方
  2. 改多了、改少了
  3. 悄悄引入回归
  4. 固执己见的编程和最佳实践约束
    比如无论如何允许你写apikey这样高敏感信息到markdown文件

而你会发现——

我们的整个 prompt 进化史 本质都在压制前三件事。

这不是巧合。

这是工程现实。


Vibe Coding 时代真正的分水岭

很多人把 Vibe Coding 理解为:

  • 更自然
  • 更对话式
  • 更像人

但如果只停在这里,是不够进入生产的。

从我这条 prompt 演化曲线看,真正的分水岭是:

有没有形成可复用的人机控制协议栈

我现在越来越确信一件事:

未来 AI coding 不只是:

  • 模型大小
  • benchmark 分数
  • agent 框架

而是:

工程化人机协作的控制层。

Cursor 、vscode为代表的IDE 智能化路线,

Claude Code、Codex为代表的cli为主变成路线,

还有以智能体为载体的任务委托路线,比如用openclaw搭建的编程多agents 系统。

谁能先工程化人机协作的控制层,就会有领先优势


回看我这一年多的 prompt 演化,如果只用一句话总结:

一开始在教 AI 写代码。 后来我们在教 AI 不要乱写代码。 再后来,我们在为人机协作编写控制系统。

而我们越来越确信:

AI 编程的下一个时代,不是更强的模型时代。

而是——

人机协作控制工程时代。

决定 AI coding 上限的,已经不只是模型能力。

而是:

使用者是否具备 系统思维 约束思维 演化思维 工程治理思维

查看全文 →
四月 27, 2026 · loverty ·

AI助手

你好!我是哈斯日志的AI助手

我可以基于当前页面内容回答你的问题。

💡 首次使用可能需要等待模型加载(约20-30秒)

有什么想了解的吗?
刚刚