1、Cuda库的开放性:英伟达呼吁的更加开放是不是只是针对传统的系统设备商。或者说,是不是用软件的封闭,替换硬件上的封闭。
2、AI-RAN整体的性能对比:在哪些场景下实现了对传统RAN的性能超越,性能提升的幅度,付出了哪些代价(前期训练需要的算力or后期推理带来的功率和时延)。或者说,在哪些模块(例如层1、或者层2)看到了明确的AI替换的前景。 哪些场景下,AI难以得到相比经典算法的明显收益。
3、关于泛化性:AI-RAN对典型场景的性能提升能否做到95%以上概率都能获得目标值以上的稳定收益。
4、关于稳定性:运营商关心的故障率如何保障。
5、如果AI-RAN中不能全部基于英伟达的通用平台实现,维护两套平台的优势和劣势是什么?未来哪些优势会放大,哪些缺点会弥补。
6、目前出现了针对特定大模型或大模型框架的AI专用芯片(如Taalas),英伟达所谓的通用算力优势和灵活性是否会随着大模型技术的日益成熟而不复存在?

——————————————————
现在微信公众号规则改变,点击左上方的蓝色字体关注我们,在公众号主页将公众号设为星标,同时点右下角的“在看”,这样就可以第一时间收到所有文章了!
——————————————————
夜雨聆风