活动回顾丨“AI解决方案大讲堂”从云端到端侧,讲透AI算力全链路
当AI产业的竞争焦点从模型参数转向token产能,企业如何获得低成本、高效率、高弹性的算力支持?从云端大规模供给、边缘低延迟分发,到端侧轻量化推理,怎样构建全链路AI基础设施?4月29日,启迪之星(乌兰察布)举办“AI解决方案大讲堂”,邀请并行科技、Cloudflare、万格智源三位技术专家,围绕云端算力与token工厂、边缘算力与低延迟分发、端侧轻量化推理三大核心场景,分享最新技术实践与落地案例,助力企业加速数字化转型。
云端算力:2026年AI产业竞争聚焦token产能,中国日均token调用量两年增至140万亿。并行科技作为A股首家专业算力服务商,打造开放算力底座Max平台,整合全国九大枢纽、自有70万核心及接入200万核心,支持多模态模型,通过弹性伸缩与容灾保障业务连续性。性能上优化DeepSeek模型,升腾910达英伟达A80性能92.8%、成本低23%。商业化按token计费,服务汽车、航空航天、400所高校等,典型案例如为魔警未来科技一体机提供稳定DeepSeek API。
边缘算力:Cloudflare构建全球330个POP节点、210个GPU推理节点,将智能驾驶场景延迟从3秒降至500毫秒。其R2对象存储零出站流量费用,助力Character.AI降本;Worker AI边缘推理部署仅一行代码、成本降97%,Visco节省40万美元;Agent SDK与MCP支持三天构建智能体,PayPal完成发票智能体;AI Gateway提供缓存、限速、安全防护,Syndex推理时间缩至3小时、成本降98%。
端侧算力:万格智源专注端侧推理中间件,5G内存即可运行35B大模型(传统需32G),兼容多芯片,已合作联想、绿联。千元硬件实现万元工作站性能,端侧处理80%-90%任务,部分上云,综合成本降10倍;Mac mini部署35B模型达20 tokens/秒。清华北大团队创办,致力成为端侧token供应商,推动Agent普及。
文字、美编:Xcd
审核:Zhy