各个面捕数据的标准
上一页说到,目前绝大部分面捕使用者都是ViveProEye、QuestPro、Pico4Pro,对应了SRanipal、FACS Reduced和ARKit三种标准,他们之间有简单的一些差距。
详细的表格则在Face Tracking Shapes Conversion,简单的表述如下:
眉毛相关数据 | 舌头伸出 | 舌头的上下左右移动 | |
SRanipal | × | √ | √ |
FACS Reduced | √ | √ | × |
ARKit | √ | √ | × |
同时针对不同的形态键,会有不同的名称,比如:
ARKit:jawOpen
UE:JawOpen
SRanipal:Jaw_Open
任何一个大小写/空格/下划线的不同,都会导致动画文件无法匹配形态键,从而无法正确驱动。
笔者:mouthClose和MouthClosed真的难绷,之前debug半天没找到原因,结果是因为少打了一个d
按照这样,那是不是每一个设备就得要按着不同的标准进行后续的处理呢?不!这就要介绍我们面捕的关键软件-VRCFT了!
VRCFT,全称VRCFaceTracking,是一个无论什么面捕设备都能够使用的软件,这里先不展开对软件的介绍,我们需要了解的是VRCFT专用的标准:UnifiedExpressions(UE)
VRCFT其实也就是通过使用不同的模块将不同设备的面捕标准统一成 UnifiedExpressions(下称UE),可以看作是一种抽象。这种抽象过程本质上是在不同的底层数据和协议上,提取出共性并进行整合,形成一个统一的接口和表达方式,方便开发者和用户在不同设备上获得一致的体验。
之后我们无论是讨论何种设备,以及后面的模型制作过程,都只是使用这个UE标准,这样就能保证我们做出来的模型能够在不同设备上使用了~
No Comments