刚刚看到一则关于AI角色表现开发的有趣新闻,由Anuttacon发布,这是一家由miHoYo创始人蔡昊宇成立的AI公司



他们刚刚推出了LPM 1.0,是一种角色视频表现模型,令人相当惊讶。该系统使角色能够同时说话、唱歌、听音乐和表现反应,全部实时进行。更棒的是,嘴型和面部表情的动作,以及身体的节奏,看起来非常逼真,不像是人工合成的

从技术角度来看,他们使用了一个拥有170亿参数的基础模型,并将其调整为低延迟的流式版本。值得一提的是,它支持多样的角色风格,从写实风格、2D动画到3D游戏,甚至非人类生物,无需额外调整

我注意到Anuttacon还推出了LPM-Bench评估标准,使得在多个指标上其表现优于市场上的其他模型。一个主要的区别是,LPM 1.0可以无限制地输出内容,而其他选项通常限制在30秒以内

他们感兴趣的应用场景非常明确,包括NPC对话代理和虚拟直播,具有巨大潜力,尤其适合miHoYo和其他游戏公司

不过需要指出的是,Anuttacon明确表示此次发布仅用于学术交流,目前没有开源或向公众提供API的计划。大多数社区认为,其主要目的是吸引具有AI能力的人才

回头来看,LPM 1.0是Anuttacon在游戏引擎和智能NPC方面AI路径的下一步,也是miHoYo从聊天工具AnuNeko到基础模型能力不断发展的一个成果。看起来,蔡昊宇和他的团队正在打造在AI角色领域具有重要意义的技术。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论