哈斯日志
纪录我们在网路上奔波的历程!
代码不再稀缺,稀缺的是你如何对抗复杂度
星期一, 五月 11, 2026

 

代码不再稀缺,稀缺的是你如何对抗复杂度

这件事我其实是反过来理解的。

过去我们以为“写代码”本身是一种稀缺能力——会的人少、产出慢、成本高,所以工程师的价值建立在“能不能写出来”。但现在,代码正在变成一种接近“语言”的东西。你只要说得清楚,它就能被生成。于是问题开始发生偏移:不是你能不能写,而是你到底在让机器写什么。

这不是一个能力提升的问题,而是一个价值函数重构的问题。


我认为,代码边际成本趋近于零这件事,本质上改变了三个隐含前提。

第一个前提是:实现不再是瓶颈。

当实现不再稀缺,所有“把想法变成代码”的路径都会被压平。你很难再用“我能做出来”作为差异点,因为别人也可以,而且可能更快。这里有个反直觉点——效率的提升,反而让“无效尝试”指数级增加。过去写一个系统要三个月,你会非常克制;现在半天能出原型,试错成本低到你不会认真思考。

于是你看到的不是创新爆发,而是噪声爆发


第二个前提是:复杂度开始失控。

代码变便宜之后,人类的本能不是“少写”,而是“多叠”。多写一点逻辑,多接一个API,多加一层抽象。因为成本低,所以没有约束。但复杂度不是线性增长的,它是组合爆炸的。

真正的问题在于,大模型并不会帮你管理复杂度,它只会放大复杂度。

你让它生成一个模块,它可以做得很好;但你让它维护一个系统,它没有“全局约束感”。这时候,复杂度的责任就重新落回到人身上——但人已经被“生成的便利”削弱了约束意识。

所以我越来越倾向于一个判断:
未来工程能力的核心,不是构建能力,而是约束能力。

不是你能写多少,而是你能删多少、限制多少、拒绝多少。


第三个前提,其实更隐蔽:注意力开始成为硬通货。

当一切都可以被快速生成,信息本身就不再有价值。代码也是信息。你可以生成一万行,但你无法阅读一万行。你可以让系统变复杂,但你无法理解它。

这时候,瓶颈从“生产”转向“消费”。

你有没有发现,现在真正耗时间的,不是写代码,而是理解代码、验证代码、调试代码、确认系统行为。换句话说,注意力成为系统的运行成本

而注意力是不可扩展的。

所以这里出现了一个结构性矛盾:
生成能力指数级增长,但理解能力线性甚至停滞。
这不是效率问题,这是系统失衡。


换个角度看,这其实在逼迫一种能力重新浮出水面:系统设计能力。

不是架构图那种“设计”,而是更底层的东西——你如何划分边界,如何定义接口,如何约束状态,如何让系统在复杂度增长时仍然可控。

过去这些能力被“写代码能力”掩盖了,因为实现本身很贵;现在实现不贵了,设计的好坏就直接暴露出来。

你可以很快生成一个系统,但你很难生成一个长期可演化的系统

这两者的差距,会越来越大。


我在想一个问题:如果代码完全免费,工程师还剩下什么?

不是语法,不是框架,不是工具链。这些都会被抽象掉。

剩下的是三件事:

  • 你是否能定义问题(而不是解决问题)

  • 你是否能控制复杂度(而不是扩展复杂度)

  • 你是否能分配注意力(而不是消耗注意力)

这三件事,其实都不是“工程技能”,而更接近一种认知能力。


这里还有一个容易被忽略的变化。

当代码变得廉价,错误也变得廉价

过去一个bug的代价很高,所以你会在设计阶段避免它;现在修复很快,于是大家开始接受“先生成再修”。这听起来没问题,但它隐含着一个长期风险——系统质量开始依赖“后验修正”,而不是“前置约束”。

如果系统规模小,这种方式是高效的;但当系统变大,这会变成灾难。

因为复杂系统的问题,不是bug多,而是不可预期性增加


我不太认同一种乐观叙事:认为AI会让软件工程变得更简单。

它确实让“写代码”变简单了,但同时让“做系统”变难了。

这两件事是反向的。


所以如果非要给一个结论,我更倾向于这样表达:

代码的边际成本趋近于零,并没有降低工程的门槛,而是把门槛从“执行层”抬升到了“认知层”。

真正的问题不再是“你会不会写”,而是:

你是否知道不该写什么。
你是否能在无限生成中,维持有限秩序。
你是否能在复杂度失控之前,主动收缩系统。

这听起来不性感,但这是我目前看到的最真实的变化方向。

查看全文 →
五月 11, 2026 · loverty ·
LLM、GPT经济创新的锚点:三条原则到七个维度
星期六, 五月 02, 2026

 Token经济时代,产品创新具体操作建议三条:

1. 做"最后一公里"的“专业翻译者”(professional usage)基础模型是通才,它不懂某个行业的"潜规则"和"隐性知识"。谁能把行业know-how封装成prompt工程+fine-tuning+workflow,谁就在做一个基础模型无法直接替代的价值层。这层的护城河不是算法,是行业理解的深度

2. 在"数据荒漠"里打井寻找那些数字化程度低、但经济价值密度高的行业(制造业质检、中医诊断、建筑工程造价)。这些领域的数据既没有被大模型训练过,又难以自动化获取——谁先建立数据基础设施,谁就拥有别人无法快速复制的资产。

3. 把"工具"做成"基础设施"工具被替换,基础设施被依赖。判断标准是:你的产品是否产生了用户迁移成本(数据、配置、工作流、团队习惯)。Cursor之所以比一般AI编辑器溢价高,是因为它接管了开发者的整个编码上下文,而不只是提供一个对话窗口。

规模固然迷人,但在Token泛滥的时代,“对特定深度的极致占有”,或许才是对抗批发商(底层大模型)收割的最强防线。

维度一:替代成本不对称性

判断标准:如果不使用AI完成同等质量的任务,人工成本的上升是线性的还是指数级的?

关键细化:替代成本不仅包括金钱成本,还包括时间成本(速度的不可替代)和可得性成本(人才稀缺的不可替代)。比如在三线城市提供三甲医院级别的影像诊断建议,不是"贵不贵"的问题,是"有没有"的问题——这种可得性的不可替代性,比成本节省的替代性要强得多。


维度二:决策后果的放大系数

判断标准:这个场景里,AI输出的对错,会产生多大的下游经济后果?

这是单Token价值密度最直接的决定因素。信贷风控的一个token决定一笔贷款,合同审查的一个错误可能触发百万赔偿——这类场景里用户对质量的敏感度远高于对价格的敏感度,是建立高单价的最可靠土壤。

实操筛选方法:问一个问题——如果AI给出了错误答案,用户的损失是多少?损失越大,支付高价获得可靠答案的意愿越强。


维度三:数据获取的结构性壁垒

判断标准:这个领域的核心数据,是否存在系统性的获取壁垒,而非只是"还没人去做"?

细化三个维度:第一是监管壁垒(医疗数据、金融数据受法规保护,不能随意获取),第二是关系壁垒(工业设备故障数据需要和工厂建立长期合作关系才能获得),第三是认知壁垒(中医诊断、非遗工艺的数据,需要深度行业知识才能识别和标注什么是有价值的数据)。只有结构性壁垒才是护城河,"还没人去做"只是时间窗口。


维度四:工作流节点的不可绕开性

判断标准:在AI重塑这个行业之后,新的行业结构里,你的产品是否占据了不可绕开的节点

画出目标行业的价值链,标注每个节点的参与者和信息流向。AI重构行业的方式通常是:压缩中间节点、提升头部节点的杠杆率。创业者需要判断的是:重构之后,哪个节点会因为信息密度或决策权重的增加而价值放大,而非被压缩。占据那个节点,比试图覆盖整个价值链要明智得多。


维度五:用户行为数据的自然积累斜率

判断标准:随着用户使用产品,是否自然地产生能反哺模型的行为数据,且无需用户主动贡献?

关键词是"自然地"。要求用户主动标注或反馈的数据积累模式,在规模化之前效率极低。最好的数据飞轮是用户在完成自己任务的过程中,无意识地生成了有价值的训练信号——比如用户对AI输出的修改行为,比用户的满意/不满意评分提供了更细粒度的监督信号。


维度六:压抑需求的释放规模

判断标准:这个需求在AI出现之前,是否因为成本太高而长期处于被压抑状态,且一旦成本下降,潜在需求规模远超现有市场?

这是最容易被忽视但增长最爆发的机会类型。判断方法:找那些"人人知道有价值、但几乎没人在做"的任务——不是因为没有需求,而是因为人工完成的成本使得商业模式无法成立。AI释放的不是一个存量市场的份额,而是一个此前不存在的增量市场。


维度七:专业标准的可量化程度

判断标准:这个领域是否有明确的专业标准,使得AI输出的质量可以被客观验证?

这个锚点反向筛选了很多看起来有价值但实际难以货币化的场景。如果质量标准是主观的("这篇文章写得好不好"),用户很难产生为质量溢价付费的意愿。如果质量标准是客观的("这份合同条款是否符合XX法规"、"这个代码是否通过了所有测试用例"),用户就有清晰的理由为更高准确率支付更高价格。


七个锚点的使用方式:

这七个锚点可以生成一个组合评分框架。任何单一锚点得分高的机会都可能是陷阱——比如替代成本高但数据壁垒低,意味着竞争者可以快速跟进;或决策后果大但工作流嵌入浅,意味着你永远只是"参考工具"而非"决策系统"。

真正值得押注的机会,是在三个原则7个锚点综合得高分的细分场景——这种组合才是我们LLM、GPT应用"商业价值公式"各因子真正协同的状态。

查看全文 →
五月 02, 2026 · loverty ·

AI助手

你好!我是哈斯日志的AI助手

我可以基于当前页面内容回答你的问题。

💡 首次使用可能需要等待模型加载(约20-30秒)

有什么想了解的吗?
刚刚