Skip to main content
Advanced Search
Search Terms
Content Type

Exact Matches
Tag Searches
Date Options
Updated after
Updated before
Created after
Created before

Search Results

8 total results found

=====正在施工=====

VRCFaceTracking:面捕从入门到入土

前期准备

VRCFaceTracking:面捕从入门到入土

在开始我们的内容前,我将列举本文用到的、可以参考的页面 VRCFT-Github VRCCF-官方文档 VRCFT-UnifiedExpressions图片对照表 VRCFT-不同标准的形态键名称对应表 需要注意的是,本文第三部分内容可能会以部分成品面捕(Booth商品等)作为例子,各个商品的具体内容不同,仅供参考

关于设备

VRCFaceTracking:面捕从入门到入土 1. 硬件层面

目前来说市面上有很多的方案,这里简单列举一些我所知道的设备。 接下来基本会以ViveProEye(默认安装ViveFacialTracker)、QuestPro和Pico4Pro来展开介绍,因为这三款设备代表了三个不同数据标准,同时还是非常主流的头显。 品牌/厂家 设备名称 眼部 面部 数据标准 备注 HTC Vive Pro Eye √ - SRanipal 搭配FacialTracker实现面捕捕捉 HTC Vive Focus ...

各个面捕数据的标准

VRCFaceTracking:面捕从入门到入土 1. 硬件层面

上一页说到,目前绝大部分面捕使用者都是ViveProEye、QuestPro、Pico4Pro,对应了SRanipal、FACS Reduced和ARKit三种标准,他们之间有简单的一些差距。 详细的表格则在Face Tracking Shapes Conversion,简单的表述如下: 眉毛相关数据 舌头伸出 舌头的上下左右移动 SRanipal × √ √ FACS Reduced √ √ × ARKit √ √ × 按照这样...

软件下载及安装

VRCFaceTracking:面捕从入门到入土 2. 软件层面

本页将介绍安装VRCFaceTracking(下称VRCFT) 首先打开VRCFT的Github,在Releases中选择版本进行下载,.msix和.appinstaller都是可以的。VRCFT-Github 一般来说,推荐最新版本的VRCFT,但目前的问题是5.2.3.0中Force Relevancy没有实际效果,得回退到5.1.1.0,这就导致如果想使用Av3Emulator与VRCFT在Unity中使用OSC直接测试面捕效果的话,不能使用5.2.3.0。这条建议仅供拥有特殊需求的朋友参考。 前文提过...

遇到的问题及解决方案

VRCFaceTracking:面捕从入门到入土 2. 软件层面

关于Pico互联与VRCFT相关问题,站内有详细解答: PICO 互联使用 VRCFaceTrack... | VRCD 文档库 TBD

基本原理

VRCFaceTracking:面捕从入门到入土 3. 模型层面

简易流程图 下面是一个从现实动作到模型动作的简单流程图,仅供参考,实际情况可能会有所变化。 简单来说,头显发送原始数据到VRCFT,然后通过VRCFT转化UE参数到模型当中,模型通过动画器控制动画驱动模型形态键实现动作。 参数的平滑和参数二进制压缩 根据VRChat的文档和我们自己游玩的经验,我们可以知道VRC的参数同步是有延迟的,一般会隔0.2s左右会向远端(也就是其他玩家)同步一次同步参数。例如我的GestureRightWeight这个float的参数,我在一秒内将他从0变到1,在本地会看到这...

动画器详解

VRCFaceTracking:面捕从入门到入土 3. 模型层面

我们现在以Jerry的Template来作为示范的例子,因为从0开始创造有一定难度,所以我们不妨先来看看成品是怎么样的。 Jerry的Template地址在这里:VRCFT-Template 在早期版本,这个模板是直接在Asset目录下的,但在5.0版本之后,则需要在Package中寻找VRCFT - Jerry's Templates 值得一提的是,Jerry的模板是使用VRC Fury来安装的,最方便的办法其实是用VRCFury的预制件直接丢入模型当中,但我们只是为了分析动画器,所以就直接使用资产中的An...