乐于分享
好东西不私藏

湖大发布!AI加速器软件生态有了新标准

湖大发布!AI加速器软件生态有了新标准

近日

受计算产业生态创新中心(教育行业)分中心支持

湖南大学国家超级计算长沙中心科研团队

正式发布了一套可复用、可比对、可提交的

《AI加速器软件生态公开评测标准》

此举旨在破解国产算力卡选型中长期存在的

“软件生态好不好用”这一难题

推动行业从单纯关注“峰值指标”

转向关注“真实落地体验”

核心概念
01
AI加速器

AI加速器是专为人工智能计算设计的硬件设备,通常称为GPU或算力卡。它主要用于人工智能大模型的训练和推理两大场景,能够大幅提升神经网络计算、矩阵运算等AI任务的执行效率,类似于为AI系统配备的“专用引擎”。

02
AI加速器软件生态

指围绕AI芯片运行所配套的驱动、编译器、框架、工具链和部署平台等软件体系。它决定了芯片是否容易开发、性能能否充分发挥,以及能否快速落地应用。

03
算力选型

即选择AI加速器时,结合自身需求挑选适配性强、实用性高的设备,避免盲目采购造成浪费。

“以往在选择AI加速器时,往往只能参考商家宣传的峰值指标、运行速度等纸面数据,如同购买汽车仅关注厂家标注的最高时速,却忽略了实际使用中的路况适配、配件质量及售后保障等关键问题。”研发团队说,《AI加速器软件生态公开评测标准》则以实际使用体验为核心,为算力选型提供科学的判断依据,助力区分设备的实际实用性与宣传效果。该标准不仅适用于国产AI加速芯片,也同样适用于TPU、AMD等国外AI加速芯片。

一套标准,三大文件

与以往单一的结论报告或简单兼容性清单不同,《AI加速器软件生态公开评测标准》是一套完整的公开评测标准包,由三份分工明确的核心文件组成,共同解答“测什么、怎么记分、如何提交过程证据”三大关键问题。

其中,《AI加速器软件生态公开评测规范》是整套标准的总标尺,划定评测范围与规则,明确“最小等价适配”标准,禁止“换题”“绕题”等违规行为,统一评测口径与证据要求。《AI加速器软件生态公开评测打分表》则统一结果呈现格式,整合首轮状态、最终得分、问题明细、时间成本等关键信息,支持横向对比与公开引用。《AI加速器软件生态评测过程数据提交规范/模板》是本次新增的关键文件,规范日志、脚本、问题台账等过程数据的提交与管理,确保评测可复核、可复现。

破解难题,聚焦体验

研发团队表示,“我们结合实际使用中的常见痛点,针对性设置评测内容,希望能为行业解决实际难题。”

针对配套文档零散杂乱、使用及故障排查不便、耗费时间的问题,标准将配套文档质量、可获取性纳入评测,文档不完善、查询不便将直接影响评测结果。

针对商家演示与实际应用脱节,设备适配自身程序、数据时频繁故障的问题,标准重点评测设备对自定义程序、数据的适配能力,未通过该环节评测则判定为不合格。

针对选型中忽略调试、故障排查时间成本的问题,标准明确记录设备首次调试耗时、故障闭环耗时、文档查阅耗时等关键指标,量化时间成本,为选型提供更全面参考。

共建尺子,惠及行业

“这套评测标准具有较强的行业实用性,无论是设备生产厂商、技术开发者,还是采购使用者,都能从中获得助力。”研发团队说。

对AI加速器生产厂商而言,该标准将促使其聚焦产品实际适配能力、配套服务质量的提升,通过评测结果精准发现自身不足,优化产品及服务,增强市场竞争力。

对技术开发者而言,可直接参考评测过程中的真实记录、问题明细及解决方案,减少选型及使用过程中的试错成本,提升工作效率。

对采购使用者(如企业、科研机构)而言,能摆脱仅凭宣传选型的困境,依托标准提供的评分结果、证据链,清晰判断设备的实际适配性和实用性,实现科学采购、避免浪费。

“我们希望能为AI算力行业提供一份实用指南。未来在选择AI加速器时,无需再被花哨的宣传误导,依托这套标准,即可清晰辨别设备的实际价值,实现科学选型、高效应用,推动AI算力产业高质量发展。”研发团队表示。

湖大团队推出AI加速器软件生态新标准

让每一次算力选型

都有据可依、有证可查

让“值得迁移”成为可量化的判断

来源丨融媒体中心 国家超级计算长沙中心

通讯员丨罗可

编辑丨徐艺菲

责编丨李尹汝

阅读推荐

转载请注明来源:湖南大学(ID:HNU1926)