乐于分享
好东西不私藏

在ai时代这个背景下人是否可以通过使用工具带来知识的平权?

在ai时代这个背景下人是否可以通过使用工具带来知识的平权?

先说我的观点 ai不仅不会造成所谓的“平权”,更有可能会造成知识的垄断。在这里我要提出一个暴论:当决定思考和决策的基础设施全部被垄断,那么任何关于平等的叙事都是美丽的泡沫。
如果你已经看到了这里请你先不要急着反驳我,请认真思考以下几个问题。
使用ai就代表能够获取知识吗?ai影响的究竟是获取知识效率还是人类的元认知呢?ai输出的观点就是真理吗?ai他会一直免费吗?ai的本质究竟是什么?
接下来我会把这个问题拆分成资本—商品—用户这三部分
1资本就是天然的“平权”的反义词
资本的底层逻辑不是普惠,而是通过制造稀缺和分化来获得市场的垄断。所谓平权从一开始就与资本本性相悖。如果有时间我会再详细的讲讲关于垄断与反垄断
1.1利润来源于壁垒且能带来回报的永远是最顶尖的模型,而训练一个顶尖的模型需要大量的算力「能源」,和完整的供应链去控制成本,且做好软硬件的优化。但这些无疑都需要大量的资金投入。
1.2免费的底层逻辑:难的不是做好产品而是培养用户习惯,且免费开放给大众的本身就是低配的、被“蒸馏”过的模型。目的是培养用户习惯,防止竞争对手抢占市场,这个策略的本质是在为自己的企业做护城河,而非真的在赠送算力。
1.3当资本无形化,能源算力、数据、算法甚至连用户的习惯,创造力变成了生产资料,都纳入了一套新的增值逻辑循环里。
2. Ai是什么—理性的空壳ai幻觉
2.1当前大语言模型「LLM」的核心工作方式并非基于理解,而是进行“概率预测和模仿”。简单来说就是ai并不理解自己生成的文本他只是去预测下一个字最像什么,这是导致其产生幻觉的深层原因。
2.2模型对于数据中高频、有规律的模式学习的很好如语法,但对于随机的、低频的样本很难有稳定的记忆。所以ai学到的“真理”实际上是基于巨大的样本量中观察到的统计规律,“统计真理”并非“事实真理”也就是说不存在一种理想中的客观「这里没有用绝对客观,因为我觉得语言只是对客观事物的主观解释,类似语言的边界」它生产的是高度仿真的伪认知。并且大多数人并没有能力去证伪。
2.3掌握了投喂数据的权利即掌握了叙事权。
2.3.1能见度的权利:如果吧模型想象成一个无限大的图书馆,而神秘力量正通过筛选数据对这个图书馆进行一场无声的“优化”,决定什么可以被看见什么可以被忽略。
2.3.2决定知识价值的权利:那么究竟谁有资格去定义哪些知识是有价值的哪些是没有的呢?那些服务于商业、技术、科学的“理性的”知识被高亮,无法直接增值的艺术,沉思,批判性叙事则被忽略乃至消失,这何尝不是一种异化呢?
2.3.3边界的划定是思想的阉割—知识的黑箱化:让ai“安全”,听起来无可辩驳,但我们要问的是:又有谁来定义何为“不安全”呢?如果伦理的内核可以被权力结构编码,那是否又创造了一个隐形的认知牢笼?
3.用户认知的退化
“知识平权”的前提是所有人拥有学习能力而不是拥有足够多的知识,这里就不过多解释元认知这个概念,可以到我的上一片博客《如何打破信息茧房并完善自己的知识结构?》中进行深入了解
3.1使用层的分化:区分提问和被喂养的区别
强者更强;强者拥有思辨和证伪的意识,他们知道如何提问,也能分辨ai的精华与谬误,这使强者的学习成本大幅降低。
傻屌更傻:缺乏知识体系的人,只能提出模糊的问题,得到看似合理实则肤浅且错误的答案无法分辨甚至深信不疑。
这根本他吗的不是平权而是认知效率的碾压。
因此ai更像是一个巨大的“不平等放大器”这源于他的技术特性,在一些东西的影响下必然会加剧分化,除非通过范式革新彻底解决底层问题,否则ai是有一定局限性的。