乐于分享
好东西不私藏

AI 时代,软件真的变成“日抛”了吗?

AI 时代,软件真的变成“日抛”了吗?

大家好,我是阿木。

今天在网上看到钉钉创始人在视频中讲道,今天这个时代软件已经变成了“日抛”,根据自己的场景,按需生产,按日迭代进化。

在他的演讲视频中,他也提到了自己公司所有的中台,内部软件都已经全部取消,不再有软件工程师,所有的软件都是即时生成。不管以前的代码有多复杂,他认为 AI 都能快速的重构。

对此,我看到评论区也有着很大的分歧。不少热也花了大力气论证,这种情况绝无可能。对于大型企业的代码以及业务的复杂度,不是 AI 写几行代码能够解决的。

当然一部分还是支持这种观点的,这也确实就是一种趋势。

就我个人来说,这一两年我也一直是使用 AI 进行代码开发。AI 确实能写代码,并且搭原型很快,一个简单的雏形一两天完成并不奇怪。

但是“能做出来”和“好用、稳定、丝滑”是两回事。写过代码的人都知道,项目开发中最耗时的不是 Coding,而是在 Coding 过程中需要考虑的各种场景、用户习惯、异常以及一些细节问题。

更耗时的是对领导那模棱两可的需求的理解,以及应付需求的变更。

当然有些软件肯定是可以做到“日抛”,一些工具类的相对比较简单的软件,确实是可以做到“日抛”的。毕竟 AI 复刻起来也太简单了。

不知,大家对此有什么看法。

好了,我们回归主题,今天来一道常见的面试题。

题目描述

什么是提示压缩,在 RAG 中为什么要提示压缩?

在大模型中有一个概念叫“上下文窗口”,指它工作时,能一次性处理的文字量是有限的,就像一个容量有限的工作台。

“提示压缩”就像一位高效的助手,在将数据呈给大模型时,会将内容做精简处理,提取核心信息,过滤无关内容。

RAG的工作模式,决定了提示压缩的必要性:

  • 受困于“工作台”容量限制:大模型的“工作台”(即上下文窗口)容量是有限的,无法一次性处理海量信息。通过提示压缩,我们能确保所有必要的材料都能被放上去。

  • 为模型“减负”,避免噪音干扰:检索到的文档里大量信息是噪音(即无用、无关的内容)。这会让模型分心,甚至因为找不到重点而产生错误回答。提示压缩筛选、剔除这些干扰噪音,能让模型聚焦最有用的信息。

  • 为钱包“省钱”:不管是调用GPT还是国产千问、DeepSeek 等大模型API,几乎都是按输入和输出的Token数量收费的,输入越长成本越高。通过压缩输入上下文,能高效节约API成本。

  • 给系统“加速”,提升用户体验:在处理大量数据时,压缩上下文能显著降低模型的首字生成时间(Time To First Token, TTFT),让回答生成得更快,从而提升用户体验。

最后

我是阿木,每天都会分享互联网面试题以及有趣故事,期待你的关注。