大家好,我是造梦,今天给大家带来米哈游LPM 1.0,4月10日,米哈游创始人蔡浩宇旗下AI公司Anuttacon,正式发布LPM 1.0(Large Performance Model)——一个170亿参数的视频角色表演大模型,直接把AI虚拟角色的交互体验拉到新高度,彻底打破了大众对AI数字人僵硬、易崩坏的固有认知。

一、LPM 1.0到底是什么?
简单来说,LPM 1.0就是专门让AI角色拥有真实表演能力的视频生成模型,全称是大型表演模型1.0,采用170亿参数扩散Transformer架构打造,核心定位是单人全双工音视频对话表演引擎。
它和市面上普通的AI视频、数字人工具有着本质区别:普通AI只能做到单纯生成画面,而LPM 1.0更像是给虚拟角色注入了“表演灵魂”,能让角色像真人一样自然说话、专注倾听、实时做出情绪反应,还能长时间保持同一个人物形象不崩坏,专门解决AI角色高表现力、实时交互、长时稳定这三大行业难题。
不管是写实真人、二次元动漫、3D游戏角色,甚至是各类拟人化非人生物,它都能完美适配,依托米哈游的游戏角色打磨经验,在虚拟角色塑造上有着天生的优势。

二、LPM 1.0能做什么?4大核心能力
✅ 超强身份一致性,角色全程不崩脸
这是LPM 1.0最核心的优势,只需要上传单张角色照片,就能生成稳定的虚拟形象,不管是几小时还是更长时间的连续互动,角色的外观、五官、风格都能始终保持一致,彻底杜绝普通AI常见的牙齿扭曲、表情错乱、侧脸变形、人物穿模等崩坏问题,角色身份稳定性拉满。
✅ 全双工实时互动,复刻真人聊天感
区别于大多数AI数字人“你说完我再动”的单向模式,LPM 1.0实现了真正的全双工交互:你说话的时候,角色会同步做出点头、皱眉、眼神跟随等倾听动作,支持随时打断、即时反馈,搭配低延迟流式推理,全程交互流畅不卡顿,和真人面对面聊天几乎没有区别。
✅ 细腻拟人表演,微表情细节拉满
它针对人类社交行为做了专项优化,表演细节极其自然:说话时口型能精准匹配语音,还会搭配自然的手势和身体微动;倾听时会有思考停顿、情绪起伏等反馈;就算是独处状态,也会有呼吸节奏、小动作等拟人化表现,完全告别机械僵硬的AI表演感。
✅ 多模态可控,轻松联动其他AI
使用门槛极低,只需要输入单张图片+语音/文本提示,就能生成角色说话、倾听、指定动作的视频内容;还能自由对接ChatGPT、豆包等通用大模型,把AI的语音回答直接转化为角色表演画面,轻松实现AI问答+虚拟人演绎的一体化效果。
不管是虚拟主播直播、AI陪伴聊天、游戏智能NPC、数字人客服,还是教育科普、短视频内容创作,都是它的核心应用场景。

三、和主流AI工具相比,优缺点全解析
✅ LPM 1.0核心优势
对比市面上主流的HeyGen数字人、Pika文生视频、Sora通用视频模型,LPM 1.0的针对性优势极其突出。
在角色稳定性上,其他工具要么只能支持短时间生成,时间一长就容易出现人物变形、细节扭曲,要么中长视频会有小幅形象漂移,而LPM 1.0能做到小时级角色零崩坏,这是其他工具难以企及的。
在交互能力上,HeyGen只能做单向数字人播报,Pika和Sora更是纯视频生成工具,完全不具备互动属性,唯独LPM 1.0实现了全双工实时对话,是真正意义上的可交互AI角色。
在表演自然度上,HeyGen仅能做到基础口型匹配,Pika生成的人物动作僵硬,Sora画面流畅但人物表情缺乏灵气,而LPM 1.0主打专业表演,微表情、肢体动作、情绪联动全程拟人,体验感远超同类产品。
除此之外,它对二次元、游戏角色的适配度更高,还能外接各类大模型拓展玩法,通用性和专业性兼具。
❌ LPM 1.0现存短板
当然,现阶段的LPM 1.0也存在明显的局限性。
首先是使用门槛极高,目前模型完全封闭,不开源、不开放API、没有公众体验入口,普通用户根本无法直接使用,对比HeyGen、Pika网页在线即用的低门槛,亲民度极差。
其次是创作场景单一,它只专注于单人角色表演,不支持多人同框、复杂场景搭建,也无法生成风景、特效等泛用视频内容,更做不到Sora那样的全场景视频创作,适用范围很窄。
再者是硬件要求苛刻,170亿参数的模型规模,需要高端GPU和专业服务器才能运行,普通人根本无法本地轻量化部署。
最后是暂无商业化计划,目前仅停留在技术演示和学术研究阶段,没有开放商用授权、付费服务的相关规划,短期无法落地普及。
四、普通人如何使用?超简单教程
现阶段唯一体验方式
目前LPM 1.0尚未对公众开放任何使用入口,没有注册通道、没有体验版本,普通人无法自主生成和使用。
大家可以关注研发团队Anuttacon的官方主页,查看官方发布的演示视频、技术白皮书,了解模型的长时交互、角色演绎等实际效果;同时持续关注米哈游官方动态,耐心等待后续开放测试、API接入等相关公告。
未来开放后简易使用步骤
等到模型正式开放后,普通人也能轻松上手,操作流程十分简单:
Step1:准备角色素材,上传一张清晰的正面角色图片,不管是真人照片、动漫插画、游戏立绘都可以,无需额外多角度素材,就能一键锁定角色形象。
Step2:选择创作模式,有三种模式可选:语音模式可实时和角色对话,适合直播、陪伴聊天;文本模式输入文案,就能自动生成匹配口型和动作的播报视频;联动模式对接AI大模型,实现自动问答+角色演绎。
Step3:进行细节微调,简单设置角色的情绪风格(开心、严肃、温柔等)和动作幅度,系统会自动优化微表情和肢体动作,让表演更自然。
Step4:完成生成与使用,实时交互模式可直接用于直播投屏,视频模式可导出高清文件,用于短视频剪辑、内容发布等场景。
当下平替方案
如果想提前体验AI数字人创作,目前可以选择HeyGen、剪映数字人、D-ID等工具,操作简单、在线即用,能满足日常短视频口播、数字人播报的基础需求。
五、总结一下
LPM 1.0的出现,标志着AI行业从通用视频生成,正式迈入专项拟人交互的全新阶段。它精准补齐了当下AI数字人不自然、易崩坏、无法长时交互的行业痛点,凭借专业的表演能力和实时交互体验,为未来游戏NPC、虚拟社交、AI陪伴、内容创作等领域指明了新方向。
虽然现阶段还无法普及使用,但相信随着技术的不断完善和开放,普通人也能轻松拥有专属、高质感、可实时互动的AI虚拟形象,一起期待它正式落地的那一天!
夜雨聆风