乐于分享
好东西不私藏

AI究竟是平权工具,还是会加剧世界不平等?

AI究竟是平权工具,还是会加剧世界不平等?

这个问题的争论,其实比AI本身还要古老。每一次重大技术变革,人类都会问同一个问题:这项技术是让世界更公平,还是更不公平?印刷术、蒸汽机、电力、互联网——每一次,乐观派和悲观派都各执一词,而历史最后给出的答案,总是比任何一方预想的都更复杂。AI也不例外。但这一次,这场争论有一些值得认真对待的新维度。

平权的部分:认知服务
先说AI确实在做的事情。一个在县城长大的孩子,以前如果想得到高质量的学习辅导,选项非常有限。一个创业者,如果无力聘请法律顾问,合同条款里的坑只能靠运气躲。一个小企业主,如果预算撑不起市场调研团队,竞争对手分析只能靠感觉。AI在这些场景里,确实降低了门槛。它把一部分原本只有有钱人才买得起的”认知服务”,变成了几乎人人可用的工具。 这不是空话,而是正在发生的事实。更广泛地看,语言障碍正在被弱化,医疗建议的初步获取成本在下降,写作、翻译、编程的入门壁垒也在降低。从这个角度看,AI确实是一种平权力量——至少在”接触知识”这个层面上。
但”用得上”和”受益”是两回事
问题在于,能用工具,和从工具中获得最多收益,是两件完全不同的事。GitHub Copilot推出后,研究者做了大量观察。一个有经验的工程师用Copilot,能更快完成任务,更重要的是,他知道Copilot生成的代码哪里可信、哪里需要怀疑,能够快速判断并修改。一个刚入门的程序员用Copilot,确实也能跑起来一段代码,但他往往不知道这段代码在边界情况下会不会出错,也没有能力审查它。结果是:有经验的人效率大幅提升,没经验的人产出了一些自己看不懂的代码。写作领域也一样。一个本来就擅长结构和论证的人,用AI来加速初稿、扩展素材、检查逻辑,产出质量有实质性提升。一个写作能力弱的人用AI,往往只是生产了更多听起来流畅但内容空洞的文字——而他自己很难分辨这个差距。法律咨询是另一个清晰的例子。AI让普通人能够获得初步的法律建议,这是真实的进步。但一个律师用AI做案例检索和文书起草,他知道哪些输出可以直接用,哪些需要核实,哪里有法律漏洞。一个没有法律背景的人,用同样的工具,可能会对一个存在错误的AI回答深信不疑。知道AI什么时候是错的,本身就需要专业知识。这里有一个关键机制:AI的输出质量在很大程度上取决于你向它提出的问题质量。 提出好问题、判断答案对不对、知道下一步该追问什么——这些能力本身就是高技能的一部分。AI把入口打开了,但不代表每个人进去之后走的距离是一样的。经济学家将这种现象称为”技能偏向型技术进步”。AI可能是这一逻辑的极端版本:它更多地是在补全高技能者的短板,而非替代他们的优势。与此同时,它确实在替代大量中低技能的重复性工作——数据录入、基础翻译、模板写作、初级客服。这就形成了一种奇特的结构:AI在底部创造了新的可及性,却在中间层制造了更大的挤压。
算力:生产端的高度集中
这场讨论还有另一个维度,而且往往被忽视:AI的生产端高度集中。训练一个前沿大模型,需要的算力、数据和资金,是普通人、普通企业根本无法触及的量级。OpenAI、谷歌、Meta、Anthropic,以及中国的几家头部公司——全球真正有能力训练顶级基础模型的机构,可以用两位数来计算。在工业革命时期,工厂是稀缺资源,土地是稀缺资源。在AI时代,算力基础设施是新的”土地”,而这片土地的所有权,比历史上任何一次技术革命都更集中。这意味着:AI工具的使用权可以民主化(任何人都能用ChatGPT),但AI产业创造的经济价值,绝大部分将流向极少数公司和个人。这是互联网时代已经发生过一次的故事——信息的获取民主化了,但广告收益集中在谷歌和Meta,内容收益集中在少数头部创作者,普通用户免费使用平台,同时成为了平台的产品。AI有充分理由重演这个逻辑,而且可能更极端。
历史的警告
印刷术发明后,宗教改革的传播得以加速,普通人第一次能够自己阅读圣经,而不必依赖教士的诠释。这是真实的平权。但印刷术同样让煽动性小册子得以大规模传播,加速了宗教战争和迫害。电力的普及花了数十年,而在这几十年里,率先获得电力的城市和工厂,积累了巨大的先发优势,区域不平等在这一过程中先升后降。互联网曾被寄予厚望,认为会让信息彻底平等。某种意义上确实如此。但互联网同时创造了历史上财富集中速度最快的一批公司,以及全球范围内”数字鸿沟”两端截然不同的命运。每一次技术革命,短期内都会加剧不平等,长期则存在扩散效应——但”长期”往往需要一代人的时间,而转型期的代价由谁来承担,从来不是平均分配的。
“会自然普及”是一个过于乐观的假设
有一种直觉认为:AI工具既然已经这么便宜,社会服务层面的差距不是会自动消失吗?问题在于,”普及”和”平等地普及”是两回事,而且历史上技术的扩散从来不是自动均匀的。首先,AI工具的质量本身是分层的。 最好的医疗诊断AI、法律AI、教育AI,往往是商业化部署的,先进入有支付能力的私立医院、高端律所、国际学校。公立系统通常是滞后的。这和当年CT机、基因检测的普及路径一样,不是永远不会到来,而是会晚很多年,而这几年的时间差本身就是一种不平等。其次,语言是一个非常实质的鸿沟。 目前主流大模型在英语环境下的表现,和在其他语言尤其是小语种上的表现,差距显著。如果一个国家的语言不是主流训练语料,那这个国家的用户获得的AI服务天然就是降级版的。这不会随着时间自动解决,除非有针对性的投入。政策可以在这里发挥实质作用。以法律援助为例:如果政府选择将AI工具纳入公共法律援助系统,低收入群体获得的服务质量可以大幅提升。但如果政府不做这个选择,这些工具就只会在商业律所里使用,帮助那些本来已经能负担法律服务的人变得更高效。技术在那里,但覆盖范围取决于谁来买单、谁来部署。医疗是同样的逻辑——AI辅助诊断工具,如果只进入私立医院,农村地区和基层公立医疗机构的患者感受不到任何变化。1995年的时候,很多人相信互联网会自然普及到每一个角落,信息鸿沟会自动消失。三十年过去了,数字鸿沟依然存在,而且不只是接入问题,还有使用能力的差距。很多国家政府后来不得不主动介入——建基础设施、推数字教育、提供补贴——才推动了更广泛的覆盖。AI的扩散大概率会重走这条路。
那么,AI到底是哪种?
诚实的答案是:AI在不同维度上同时是这两种。在知识获取层面,AI是一种平权工具,而且这种效应是真实的。在技能回报层面,AI会加剧高技能与低技能之间的分化,这种效应也是真实的。在资本积累层面,AI产业的收益高度集中于少数基础设施提供者,这一点从目前的市场格局来看几乎是确定的。在社会服务层面,AI有真正缩小差距的潜力,但这在很大程度上取决于政策选择——是让AI服务保持纯粹商业化,还是将部分能力纳入公共基础设施。这最后一点,可能才是真正的核心变量。 技术本身是中性的,但技术如何被部署、谁能获得补贴、哪些应用被纳入公共资源,这些政策问题将决定AI最终走向平权还是加剧分化。互联网在不同地区有着不同的命运,这取决于各国政府做出了什么样的选择,AI同样如此。 🔭
AI时代的均值回归与长期主义
推动 AI 发展的第一性原理
生成式 AI 的核心本质就是三句话
    • 大部分朋友反馈关注后无法收到推送,若您想及时获取内容,可星标☆本账号

    • 点赞、分享、推荐♡或评论本文章,对我们是莫大的鼓励。

    • 关注后即可访问我们的ima资料库,包含入门资料、历史文章、研报、财报供下载。

    • 我们还发布了《2026价投白皮书》《2025投资类好书、好文、播客推荐》,均可关注领取。

    • 后台回复”99″,还可申请加入读者社群,与作者及同道人交流,名额有限。

    • 本文是「AI通识读本」系列文章,持续更新中。我们用通俗语言拆解AI的原理、格局与投资逻辑——不搞玄学,不吹概念,帮你看清真实的AI世界,找到属于投资者的清醒判断。欢迎在下方订阅合集,不错过每一篇深度文章。