藏川线前段

--- 摄于 2017 年 9 月 藏川线前段

这一年,我完全生活在 LLM 的包围圈中。无论是工作流还是日常生活,它已无处不在。

半年前,我曾在博客中告诫要“理性看待 LLM”,而如今它的进化速度远超预期。但在惊叹之余,我也观测到了一些荒诞的怪象。最近的一期播客恰好聊到了 LLM 与定义权,这场对话敲开了我的脑壳——那些观点与我的实际观测不谋而合。于是打开编辑器,整理记录当下的思考。

本人的使用

这一年,LLM 的生态从单纯的文字对话演化出了各式各样的 Agent 和 Skills;从蹩脚的修图进化到了令人惊艳的视频生成。

但我本人的代码编辑器依然维持在朴素的 Ask 模式(以 Claude 为主力)。我对 Agent 的使用极其克制,这并非排斥新事物,而是出于安全层面的零信任原则。Agent 索要的权限过大,它让入侵行为变得前所未有的简单——将所有钥匙交给 AI,本质上是在赌开发者的道德水平。虽然大多数人是善意的,但利用漏洞获利的群体永远存在。

就目前的体验而言,LLM 呈现出一种鲜明的遇强则强特质:

我一向相信:“如无必要,勿增实体”,甚至还在主动减少一些东西,让自己变得更加简单。

比如我正在主动“遗忘”那些琐碎的技术细节——配置文件的具体字段、生僻的语法糖。在没有 LLM 的年代,我们需要背诵这些死知识;而现在,这一切已无必要。将大脑从记忆的重负中释放出来,我才能更专注于架构与逻辑的验证。

观测样本:局部最优,全局崩塌

最近在评估一个项目时,本打算 Fork 后二次开发,但细读代码,越看越心惊。这是一个典型的逻辑精神分裂现场。

首先,在数据库内定义了两张表:

create table data (
    name text primary key,
    handle text text not null,
    createAt text not null,
    valid boolen not null
);

create table data_delete_record (
    name text primary key,
    handle text text not null,
    deleteAt text not null
);

其次,它在代码端对数据的操作是这样的:

new_data_sql = "insert into data(name, handle, createAt, valid) 
				values ('a', 'b', '0x...', true)";
query_data_sql = "select * from data where valid = 'true'";
delete_sql = "delete from data where ...;
			  insert into data_delete_record(name, handle, deleteAt) values ...";

当然,这些 sql 藏在 ORM 后面,并且散落在项目各个地方,综合起来就是这么个情况:

这意味着,在一个项目里,设计了两套左右脑互搏的数据过期机制:一套是软删除,毫无意义;另一套是硬删除加备份,同样毫无意义。更致命的是,ORM 层没有做事务处理,这些分步操作是在裸奔。

这种代码不像是出自一位资深一线工程师之手,反倒像是某种**上下文断裂(Context Fragmentation)**后的产物。

这揭示了 LLM 编程的一个致命弱点:缺乏全局一致性(Global Consistency)。

LLM 像是一个拿着显微镜写代码的工匠。如果你只看某一行代码,它是完美的:SQL 语法正确,变量命名规范,甚至贴心地加上了 valid 校验。它在每一个局部都做到了“概率上的最优”,但拼在一起却是一场全局灾难

它在战术上极其勤奋,却在战略上表现得像个盲人。人类工程师的价值,正是在于从显微镜前退后一步,去把控那个被 AI 忽视的“全局”。面对这种逻辑破碎的遗迹,我最终决定重写而不是 Fork。

本质回归:警惕思维的熵增

这个糟糕的案例迫使我思考:LLM 到底给我们带来了什么?

本质上,LLM 带来的是对人类已有记录的极致拟合。它没有真理的概念,只有概率的计算。在已知数据的范围内,它的能力是专家级的,甚至超过了绝大多数人的终身成就。 但它的局限性也在此:它被困在“回归”的世界里。

这时候,我们需要重新审视语言对认知的锁定效应。

不要小看翻译的暗示性。Darwinism 在中文里长期被译为《进化论》,隐含了“由低级向高级”的进步主义预设。但更准确的译法应是《演化论》——它描述的是适应与变异,绝大部分变异甚至是副作用。

同理,当我们把 LLM 称为“人工智能(Intelligence)”时,我们潜意识里预设了它拥有智慧;但如果我们回归其本质——大型文字(语言)模型,你会清醒地意识到,它是一个文字接龙的高手,是对过去数据的总结。(ps: Language 在英文场景可以代表语言,但在中文场景,它似乎没法代表语言,只能说是文字,中文的表音和象形并不是一个概念)

人不能只活在“回归”的世界里。 那个世界只有回响,只有自我放大。

如果我们停止提供异常值(Outliers),停止用独特的个人风格去对抗算法,人类的文化库将变成一潭死水,最终甚至连 LLM 都没有新的数据可以用来训练——这在学术界被称为模型崩溃(Model Collapse)。近亲繁殖的数据,最终只能生出畸形的智慧。

观测世界

Transformer 架构的核心论文叫《Attention is all you need》。这句话对人类同样适用。

注意力是稀缺资源。如果你将注意力消耗在短视频算法构建的“信息茧房”里,你就是在被算法反向拟合

我不使用短视频 APP,也很少在这个喧嚣的舆论场中消耗精力。当一个事件通过层层筛选传到我耳中时,通常意味着它已经具有了被观测的价值。

这个世界是真的很奇妙的,人类的科技线也很奇妙。世界于人类而言,止步于可观测范围,科学对人类而言,也是从可观测开始的:从观测到现象,到猜测原理,到可重复验证现象,确定原理的可行性和可靠性。整个过程必然存在大量的试错过程,因为任何人都不可能看到现象就能马上精准得到背后的原理。

拒绝犯错是不可能的,一直重复犯错也是不对的,结合上篇说的,犯错不可怕,不反思不总结不吸取教训才是可怕的。

反而,犯错才是真的找到正确的前提,无论是找到正确的问题,还是正确的结论,都需要犯错。

去做真实世界的观察员吧,那里有大量等待被发现的异常值,那是 LLM 永远无法生成的未来。

评论区

加载更多

登录后评论