使用场景
在移动设备上跟踪用户与虚拟对象的交互
在虚拟现实环境中分析用户行为
在增强现实中实现物体与用户的自然交互
产品特色
单视图重建方法获取每帧交互重建
使用高效的自动编码器预测SMPL顶点
引入时间一致性对应
利用时间信息预测物体在遮挡下的平滑旋转
合成交互视频数据集ProciGen-Video,包含10小时视频
在BEHAVE和InterCap数据集上的实验显示优于传统模板跟踪方法
使用教程
1. 访问InterTrack 网站并了解技术背景和主要特点。
2. 下载并安装所需的合成数据集ProciGen-Video。
3. 使用InterTrack 模型对单目RGB视频进行人体与物体交互的跟踪。
4. 根据跟踪结果分析人体与物体的动态交互。
5. 将跟踪结果应用于行为分析、虚拟现实或增强现实等场景。