【局内重磅】蔡浩宇硅谷新作 LPM 1.0 亮相:170 亿参数专攻“角色一致性”,视频生成的演员时代开启。
AI 风向局 4月11日讯 | 就在阿里刚官宣“快乐小马”之后,米哈游创始人蔡浩宇在硅谷成立的 AI 初创公司 Anima 正式亮出了底牌。这款代号为 LPM 1.0(Large Performer Model)的模型,以 170 亿参数的体量,直指视频生成领域最难啃的骨头——高一致性角色表演。
1. 局内拆解:LPM 1.0 凭什么让业界后背发凉?
170 亿参数的“表演基因”: 不同于通用视频模型,LPM 1.0 在设计之初就侧重于角色理解。它不仅记录像素,更在存储角色的空间几何特征和表情细微变化,解决了视频生成中常见的“抽风变脸”问题。 物理级一致性: 演示视频显示,同一个角色在不同镜头、光影和大幅度动作下,面部特征和服装细节几乎做到了零漂移。这种能力让 AI 生成长剧集从理论走向了落地。
2. 米式美学与 AI 的结合
动作捕捉的赛博化: 凭借核心团队在图形学上的深厚底蕴,LPM 1.0 生成的每一个眼神转动和肌肉牵引都带有极强的叙事感。它不仅是在画图,而是在指挥一位数字化演员进行表演。
3. 局长点评
蔡浩宇这次是带着“降维打击”的任务来的。LPM 1.0 正在重新定义视频生成的上限。
如果说 HappyHorse 赢在了物理规律,那么 LPM 1.0 就赢在了“人性一致性”。对于影视行业来说,这意味着 AI 终于可以从“拍个空镜”进化到“拍个主角”。
局友们,AI 生成内容的下半场不再是比谁的画面更炫,而是比谁的“演员”演得更真。随着这种级别模型的出现,我们距离完全由 AI 生成的长剧集,可能真的只有一步之遥了。
🚀 局内特别提醒:
创作者利好: 虚拟 IP 创作者请密切关注内测,这种一致性能力是保护品牌形象的护城河。 算力门槛: 170 亿参数对显存要求极高,本地部署可能需要双 4090 或更高级别工作站。 行业风向: 留意 Blender、UE5 对这类 AI 插件的集成,这可能是未来 3D 工作流的标准形态。

夜雨聆风