回归文本
大道至简,一切应用都将回归,文件系统,以及文本本身
Claude Code + Cowork,会干掉绝大多数的桌面工具型应用。
我已经能够用自然语言在Claude Code 里直接管理docker了,为什么我还要装一个docker 客户端?
我已经能够用自然语言在Cowork 里直接管理文件夹了,我为什么要额外下载一个文件管理工具?
2C端尚且如此,2B端也有类似的问题,Cowork + data + 业务knowledge 就可以给用户提供一个业务数据分析系统了,专业的报表开发人员可以只去花费精力在需要精确数据的报表上。
AI 把整个软件行业的格局都打破了。大量的桌面办公应用软件公司将会倒闭,大量的软件从业人员将被解放出来,大量的企业2B端软件开发需求减少,大量的软件从业人员,将回归到其它行业,成为社会中不可或缺的劳动力。
今天我要讲一个我的爆论,那就是, 软件的黑盒化发挥到极致的ai时代,文件系统+ai,将成为一切app的终极interface。
从linux 说起
为什么linux,unix 操作系统比Windows更为牛逼,那就是linux,unix,都是基于文件管理的,没有复杂的注册表,没有各式各样的bat文件。就是简单,可读的配置文件。
配置文件可读的目的,就是这些信息,需要对用户可读。
ai将迅速解锁所有可见的,可懂的数据价值,从个人,从组织出发,我们有这样一些数据,他们的价值逐渐递减。
比如obsidian上周率先发布了自己的obsidian skills,因为obsidian是在本地储存的文本系统,本地储存的文本系统+ai,将迅速解锁巨大的可能性。
个人
个人产生的许多数据,都能够解锁许多价值,kk的《失控》里甚至提到,你的数据比你更懂你。
个人知识库
- 个人的大量博客
- 灵感
- 微博
- x时间线
- 论坛
个人数据库
- app里的记账信息
- 健康数据
- 订单数据
- 各个软件平台采集的数据
个人数据本地化的意义
以上的数据有些是我们可见可读的,本地可访问的,有些数据呢,可不一定,都是平台对用户刻意隐藏的,比如平台可不愿意让你知道,去年你喝了300杯奶茶。
这里有一个平台和个人的博弈过程,作为一个要control自己一切的人,我更愿意自己掌握这些数据。
回到我们要讨论的问题,软件的黑盒化发挥到极致的ai时代,文件系统+ai,将成为一切app的终极interface
Claude Cowork 一定是向面向普通人的agentic tool 发展的趋势。 Claude Cowork 当前还是一个很简单的形态,可以稍微管理一下文件系统,它的潜能在于将来,可实现的agentic 能力,比如利用报表skill,生成一个我的年度采购视图。
到这个时候,一个能够将数据保存在本地的app,将迅速成为用户的青睐,agentic tool + xx数据,就可以完全顶替所有的分析app。对于真正的用户来说,一个app只需要做好数据采集的动作即可,其它的一切,我能够利用agentic tool + 我的数据而完成。
是的所有的平台都应该要有很大的危机感才对。因为各方面的需求会锐减,最终转移到某个agentic tool上。
数据的all in one interface = agentic tool + data
做数据分析工作的人,将转向最复杂,最专业,最需要准确性的报表工作上,普通的数据分析工作,不复存在。
企业
企业的形态,一定是可筛选的知识库+企业数据。可筛选的目的是,为了减少幻觉,减少不必要的干扰,筛选知识的这件事本身,也应该最终交给ai处理。
当我有准确的上下文作为知识输入,结合数据,企业就能围绕这件事做出非常多有意思的事情,这些事涵盖了大部分企业80%的时间,在做的事。
企业要把知识,数据,代码的关系维护好,是让ai游刃有余的大前提。一切都回归到文本本身,文本的可读性,关联性,由此可见,向量检索,关联性检索的价值还在持续发酵。
知识
一个准确的业务知识库,保持更新迭代的业务知识库,能像文件系统一样,解锁企业巨大的潜力。
如果你的公司有大量的文档,毫无章法的堆叠,分散在每个开发的个人电脑里,那你最好建立一个统一的平台来管理它们。
如果你的公司有大量的文档没有任何实效性,写的内容完全不适用于当前公司的运作状态,那么你最好建立一个淘汰的机制。
随着知识库的作用逐渐放大,很快我们就需要一套非常非常规范的文档规范工作流程,确保ai拿到的知识都是有效,尽量实时的数据。
知识是数据,和代码的入口,没有一个well org 的知识库,你会在ai时代无从下手,ai的提效也跟你无关。
数据
知识->数据的关键在于domain的定义与知识库的关联。
数据本身是哑巴,需要知识库来赋予它语义。比如一个字段叫order_status=3,如果没有知识库告诉ai”3代表已发货”,ai就无法理解这个数据。
企业数据治理的核心工作,将从”建报表”转向”建语义”——确保每个数据表、每个字段都有清晰的业务定义,并与知识库关联。
代码
代码与知识的关联性在于,代码的可读性,代码的方法名,与其所处理的业务逻辑的关联性。
好的代码应该是知识库的延伸。一个叫calculateShippingFee()的方法,应该能在知识库里找到”运费计算规则”的对应文档。当ai需要修改运费逻辑时,它能同时找到规则文档和实现代码。
代码注释、变量命名、文件结构,都是给ai的索引。写代码不再只是给机器执行,更是给ai理解。
回归文本维护的基础
ai拍平了软件业务层,而且随着llm越来越强大,代码的作用会逐渐被扼杀,虽然杀不死,但是也只是很薄弱的一层的存在。代码会逐渐被业务描述的文本所替代,从数据->代码->业务知识,代码的作用逐渐减弱。
高度抽象的代码本身就是一堆if else,如果这些if else能够在文本部分就被描述的很清晰,将来这些工作都该交给ai,交给llm。
那么代码回归了执行,调用,和极为简单的if else。
最终,决定性因素就是
- 知识库的管理
- 代码与知识库的结合度
- 数据与知识库的结合度
这些征兆预示着,ai时代,一切都将回归文本本身的维护,好的文本描述,将发挥比过去更大的价值,比如,文件名,方法名,变量名,数据库字段定义,domain定义等等等等。
平衡
如果做不到一个all in one 的知识库,这部分工作只好让代码来cover,这里的决定因素有很多
- 维护知识库所需要的成本
- llm token 的成本
- 程序员的工作效率
- 程序员的工资
抽象的看,就是知识库(产品经理),代码(程序员),数据(数据工程师)的三者关系的平衡,彼强此弱。
可预见的是,随着ai的普及,token的成本必然下降,所有的资源和解决方案,都会更加倾向ai的解决方案。在我看来,2026年,这个平衡已经被打破了,只是企业是否愿意跟上这个平衡的意愿问题。有意作此事情的公司就在此发力,当token价格继续下降到另一个临界点的时候,他们就能更快的利用ai,创建企业的竞争力。