乐于分享
好东西不私藏

AI Insights|类脑大模型:它不是把参数堆得更大,而是想让 AI 像“大脑”一样思考

AI Insights|类脑大模型:它不是把参数堆得更大,而是想让 AI 像“大脑”一样思考

这两年,AI 行业最熟悉的一条路是什么?答案几乎不用想:堆参数、堆算力、堆 GPU。模型越来越大,成本越来越高,电费越来越吓人。

不过,一条看上去更像“下一代方案”的路线,开始升温了。它有个名字,最近越来越常被提起:类脑大模型

说白了,就是一句话:AI 不想再只是做一台更贵的超级计算机,而是开始试着学人脑。

这件事为什么值得关注?因为它背后可能不是一次简单的技术修补,而是一次底层思路的变化:从“把模型做得更大”,走向“把智能做得更像脑”。

一、什么叫“类脑大模型”?

所谓类脑大模型,并不是突然冒出来的一种完全独立的新物种。它更像是两条路线的结合:

  • 一条是今天大家熟悉的大模型
  • 一条是研究很多年的类脑智能 / 神经形态计算

把这两件事合在一起,意思就是:在大模型的规模能力之上,引入更接近大脑的信息处理方式,重新设计网络结构、学习机制和计算路径。

它不是只想着“参数再多一点”,而是在问另外几个更本质的问题:网络结构能不能更像脑?学习机制能不能更像脑?计算方式能不能更像脑?

用最通俗的话解释:传统大模型像是“用巨量电力驱动的算力机器”,类脑大模型想做的,是“更像生物系统的高能效智能”。这,就是它最吸引人的地方。

二、为什么它突然火了?

因为今天的大模型,真的越来越贵了。而且不是一般地贵。

1. 算力成本,已经成了天花板Transformer 架构很强,但它太依赖密集矩阵运算、太依赖高端 GPU、太依赖持续不断地砸钱。这意味着只有极少数巨头,能长期留在牌桌上。更多企业即便看见机会,也可能被成本挡在门外。

2. 能耗问题,已经不是小事过去大家谈 AI,爱聊能力边界。现在越来越多人开始聊电费、散热、碳排放。尤其当 AI 要进入机器人、车载、边缘设备、穿戴设备、医疗终端这些场景时,高功耗路线会越来越吃力。

3. 现有大模型,仍然不够“像真正的智能”今天的大模型很会说、很会写、很会理解,但在很多接近生物智能的能力上仍有明显短板:持续学习不够强、在线适应不够自然、长时记忆不够稳定、低样本泛化仍有限、面向真实世界的连续运行能力还不够理想。而这些,恰恰是人脑擅长的。

所以,类脑大模型被看重,不只是因为“省电”,更因为它可能代表一条新的方向:既要大模型的能力,也要大脑式的效率与适应性。

三、类脑大模型,和传统大模型到底差在哪?

一句话结论:传统大模型拼的是“算力密度”,类脑大模型拼的是“智能效率”

具体差别主要在三层:

第一层:计算逻辑不一样传统大模型核心是密集计算。类脑路线更强调事件驱动、稀疏激活、稀疏并行、存算一体、按需响应。你可以把两者想象成两种工作方式:前者像是整栋楼的灯全天都开着,后者像是哪里有人、哪里有任务,哪里才亮灯。这就是类脑计算低功耗潜力的来源。

第二层:网络结构不一样今天的大模型本质上是相对规整、同质化的深度网络。但人脑有不同类型的神经元、复杂连接、模块分工、层级结构和大量稀疏高效的连接。类脑大模型想借鉴的正是这些特征:多类型神经元、复杂树突计算、选择性连接、稀疏拓扑、分层与模块化组织。它不只是把网络做大,而是把网络做得更“像脑”

第三层:学习机制不一样传统大模型主要依靠大数据 + 反向传播 + 梯度下降。类脑大模型则希望引入时序依赖的突触可塑性、自组织学习、神经调制、在线适应、持续学习等机制这意味着,未来的模型不只是一个训练完毕的参数文件,而可能更像一个会不断生长、不断调整、不断适应环境的系统。

四、它和“类脑计算”“类脑智能”是什么关系?

类脑大模型本质上是类脑智能在大模型时代的一次升级落地。可以简单理解成三层关系:

  • 类脑智能
    :总目标,研究怎样借鉴脑机制发展新一代智能;
  • 类脑计算
    :实现路径,包含算法、模型、芯片、硬件架构;
  • 类脑大模型
    :把前面这些思想,真正放到“大模型级别”去实践。

它往往还会牵涉到脉冲神经网络(SNN)、神经形态芯片、软硬协同系统、低功耗部署平台。说得更直白一点:类脑大模型要真成气候,拼的不只是模型论文,还要拼芯片、系统和工程生态。

五、现在都有哪些代表性玩家?

行业还在早期,但已经出现几类代表性样本。

1. 科研侧代表:瞬悉 1.0 / SpikingBrain 1.0中科院自动化所等团队推出的类脑脉冲大模型。它采用新型类脑架构,把脉冲神经元动力学和线性注意力机制打通,在超长序列任务上展示出效率与速度优势,同时在训练数据量和能耗方面优于同规模传统模型。这让行业看到:类脑大模型开始从理论想法走向工程验证。

2. 工程侧代表:清华大学 & 千诀科技的“类脑化”框架核心思路是把已经训练好的 Transformer,直接转换成类脑脉冲网络。在保持原有性能前提下,能显著降低部分关键计算开销。这对边缘计算、具身智能、低功耗部署非常有吸引力。

3. 商业化代表:陆兮科技 NEURARK 类脑架构大模型从零构建类脑架构,强调稀疏计算、隐状态记忆和低能耗运算,已在医疗、金融、教育、气象等方向推进应用,并走到了“合规上线 + 行业落地”阶段。这说明类脑大模型不再只是停留在实验室里。

4. 平台型代表:BrainCog“智脉”类脑认知智能引擎这是一个面向类脑 AI 与脑模拟的开源平台,支持从认知模型到大规模脉冲神经网络的构建和训练,为大规模类脑模型研发提供基础能力。它更像是“修路的人”。

六、国外为什么没那么多“类脑大模型”的名字?

不是国外不做,而是表达方式不一样。国外更多聚焦在神经形态计算、神经形态芯片、大规模类脑系统、高能效脑启发平台上。他们更偏重底层平台建设,尤其是硬件与系统能力。这透露出一个关键判断:下一代 AI 的竞争,不会只发生在模型层,也会发生在芯片层、系统层、软硬协同层。

七、这会不会只是又一个热词?

类脑大模型确实有被“概念化消费”的风险,但它对应的是非常真实的行业矛盾:大模型成本太高、能耗问题突出、终端部署难度大、真实世界场景对实时性、自适应性要求越来越高。

更准确的说法不是“它是不是热词”,而是“它能不能真的跑出新的工程范式”。这才是关键。

八、离真正爆发,还有多远?

目前类脑大模型整体仍处在早期探索阶段,离全面替代主流 Transformer 还有明显距离。主要挑战包括:生态还不够成熟、标准还不统一、大规模验证还不够多。

真正的爆发场景,可能不在聊天机器人,而更可能是机器人、智能驾驶、边缘终端、医疗设备、工业控制、长时在线学习系统。这些地方对低功耗、实时性、连续运行和自主适应的要求更强,正是类脑路线的差异化战场。

九、真正值得关注的,不是一个新名字,而是一种新范式

类脑大模型真正值得重视的地方,是它想推动的底层范式变化:

从过去的“更大参数、更大数据、更大算力、更密集计算”,走向未来的“更高能效、更强适应、更低功耗、更接近生物智能、更适合真实世界长期运行”。

如果说过去十年,AI 的核心命题是“怎么把计算做大”;那么未来十年,一个更重要的问题可能是:怎么把智能做得更像生命系统。而类脑大模型,很可能正是这条路上的关键试验场。

十、最后说判断:它会是下一个主赛道吗?

短期内,它还不是主流。但中长期看,它极有可能成为大模型之后最重要的技术分支之一。

只要 AI 继续走向更低成本、更低功耗、更强实时性、更强自主适应、更贴近机器人和物理世界,那么类脑路线的价值就会不断上升。

今天看,它像大模型时代的一条“非主流支线”;但未来回头看,它也许会变成真正的分叉口。因为很多改变世界的技术,一开始都不是主流。它们先是少数人的尝试,后来才变成所有人的基础设施。而类脑大模型,正在从“少数人的尝试”,慢慢走向“全行业都不能忽视的方向”。

*本文依据网络搜集数据整理,由AI工具辅助完成All rights reserved. Copyright © 2026