Post

回归文本

大道至简,一切应用都将回归,文件系统,以及文本本身

回归文本

Claude Code + Cowork,会干掉绝大多数的桌面工具型应用。

我已经能够用自然语言在Claude Code 里直接管理docker了,为什么我还要装一个docker 客户端?

我已经能够用自然语言在Cowork 里直接管理文件夹了,我为什么要额外下载一个文件管理工具?

2C端尚且如此,2B端也有类似的问题,Cowork + data + 业务knowledge 就可以给用户提供一个业务数据分析系统了,专业的报表开发人员可以只去花费精力在需要精确数据的报表上。

AI 把整个软件行业的格局都打破了。大量的桌面办公应用软件公司将会倒闭,大量的软件从业人员将被解放出来,大量的企业2B端软件开发需求减少,大量的软件从业人员,将回归到其它行业,成为社会中不可或缺的劳动力。

今天我要讲一个我的爆论,那就是, 软件的黑盒化发挥到极致的ai时代,文件系统+ai,将成为一切app的终极interface

从linux 说起

为什么linux,unix 操作系统比Windows更为牛逼,那就是linux,unix,都是基于文件管理的,没有复杂的注册表,没有各式各样的bat文件。就是简单,可读的配置文件。

配置文件可读的目的,就是这些信息,需要对用户可读。

ai将迅速解锁所有可见的,可懂的数据价值,从个人,从组织出发,我们有这样一些数据,他们的价值逐渐递减。

比如obsidian上周率先发布了自己的obsidian skills,因为obsidian是在本地储存的文本系统,本地储存的文本系统+ai,将迅速解锁巨大的可能性。

个人

个人产生的许多数据,都能够解锁许多价值,kk的《失控》里甚至提到,你的数据比你更懂你。

个人知识库

  • 个人的大量博客
  • 灵感
  • 微博
  • x时间线
  • 论坛

个人数据库

  • app里的记账信息
  • 健康数据
  • 订单数据
  • 各个软件平台采集的数据

个人数据本地化的意义

以上的数据有些是我们可见可读的,本地可访问的,有些数据呢,可不一定,都是平台对用户刻意隐藏的,比如平台可不愿意让你知道,去年你喝了300杯奶茶。

这里有一个平台和个人的博弈过程,作为一个要control自己一切的人,我更愿意自己掌握这些数据。

回到我们要讨论的问题,软件的黑盒化发挥到极致的ai时代,文件系统+ai,将成为一切app的终极interface

Claude Cowork 一定是向面向普通人的agentic tool 发展的趋势。 Claude Cowork 当前还是一个很简单的形态,可以稍微管理一下文件系统,它的潜能在于将来,可实现的agentic 能力,比如利用报表skill,生成一个我的年度采购视图。

到这个时候,一个能够将数据保存在本地的app,将迅速成为用户的青睐,agentic tool + xx数据,就可以完全顶替所有的分析app。对于真正的用户来说,一个app只需要做好数据采集的动作即可,其它的一切,我能够利用agentic tool + 我的数据而完成。

是的所有的平台都应该要有很大的危机感才对。因为各方面的需求会锐减,最终转移到某个agentic tool上。

数据的all in one interface = agentic tool + data

做数据分析工作的人,将转向最复杂,最专业,最需要准确性的报表工作上,普通的数据分析工作,不复存在。

企业

企业的形态,一定是可筛选的知识库+企业数据。可筛选的目的是,为了减少幻觉,减少不必要的干扰,筛选知识的这件事本身,也应该最终交给ai处理。

当我有准确的上下文作为知识输入,结合数据,企业就能围绕这件事做出非常多有意思的事情,这些事涵盖了大部分企业80%的时间,在做的事。

企业要把知识,数据,代码的关系维护好,是让ai游刃有余的大前提。一切都回归到文本本身,文本的可读性,关联性,由此可见,向量检索,关联性检索的价值还在持续发酵。

知识

一个准确的业务知识库,保持更新迭代的业务知识库,能像文件系统一样,解锁企业巨大的潜力。

如果你的公司有大量的文档,毫无章法的堆叠,分散在每个开发的个人电脑里,那你最好建立一个统一的平台来管理它们。

如果你的公司有大量的文档没有任何实效性,写的内容完全不适用于当前公司的运作状态,那么你最好建立一个淘汰的机制。

随着知识库的作用逐渐放大,很快我们就需要一套非常非常规范的文档规范工作流程,确保ai拿到的知识都是有效,尽量实时的数据。

知识是数据,和代码的入口,没有一个well org 的知识库,你会在ai时代无从下手,ai的提效也跟你无关。

数据

知识->数据的关键在于domain的定义与知识库的关联。

数据本身是哑巴,需要知识库来赋予它语义。比如一个字段叫order_status=3,如果没有知识库告诉ai”3代表已发货”,ai就无法理解这个数据。

企业数据治理的核心工作,将从”建报表”转向”建语义”——确保每个数据表、每个字段都有清晰的业务定义,并与知识库关联。

代码

代码与知识的关联性在于,代码的可读性,代码的方法名,与其所处理的业务逻辑的关联性。

好的代码应该是知识库的延伸。一个叫calculateShippingFee()的方法,应该能在知识库里找到”运费计算规则”的对应文档。当ai需要修改运费逻辑时,它能同时找到规则文档和实现代码。

代码注释、变量命名、文件结构,都是给ai的索引。写代码不再只是给机器执行,更是给ai理解。

回归文本维护的基础

ai拍平了软件业务层,而且随着llm越来越强大,代码的作用会逐渐被扼杀,虽然杀不死,但是也只是很薄弱的一层的存在。代码会逐渐被业务描述的文本所替代,从数据->代码->业务知识,代码的作用逐渐减弱。

高度抽象的代码本身就是一堆if else,如果这些if else能够在文本部分就被描述的很清晰,将来这些工作都该交给ai,交给llm。

那么代码回归了执行,调用,和极为简单的if else。

最终,决定性因素就是

  • 知识库的管理
  • 代码与知识库的结合度
  • 数据与知识库的结合度

这些征兆预示着,ai时代,一切都将回归文本本身的维护,好的文本描述,将发挥比过去更大的价值,比如,文件名,方法名,变量名,数据库字段定义,domain定义等等等等。

平衡

如果做不到一个all in one 的知识库,这部分工作只好让代码来cover,这里的决定因素有很多

  • 维护知识库所需要的成本
  • llm token 的成本
  • 程序员的工作效率
  • 程序员的工资

抽象的看,就是知识库(产品经理),代码(程序员),数据(数据工程师)的三者关系的平衡,彼强此弱。

可预见的是,随着ai的普及,token的成本必然下降,所有的资源和解决方案,都会更加倾向ai的解决方案。在我看来,2026年,这个平衡已经被打破了,只是企业是否愿意跟上这个平衡的意愿问题。有意作此事情的公司就在此发力,当token价格继续下降到另一个临界点的时候,他们就能更快的利用ai,创建企业的竞争力。

This post is licensed under CC BY 4.0 by the author.