我的手机拍摄视频的过程的视频都是29.97帧的,PR换成60帧的会有影响吗


  • 第一次不受低维方法空间的限制通过端到端方法同时解决了面部对齐与3D人脸重建
  • 为了直接回归3D面部结构和密集对齐作者提出了一种UV位置映射在2D角度记录3D点
  • 提出了权重掩碼并计算权值loss进行训练,从而提升模型的性能表现
  • 提出了一个超过100FPS的轻量级框架

基于3DMM的方法是目前单目3D面部形状重建中最流行的方法之湔大多的方法都是去建立3D几何结构的特别点和本地特征,这解决了回归3DMM系数的非线性提升函数然而,这些方法严重依赖高精度的标注或特征点检测因此所以很多方法首先使用CNN来学习输入图像和3D模版之间的密集对应,然后计算3DMM参数最近的工作也太多了使用CNN来直接预测3DMM参數,在迭代过程中花费很多时间然后还有通过端对端CNN直接预测3DMM形状的方法。另外非监督的方法也在被研究,有的可以使用面部纹理信息回归3DMM不需要训练数据的帮助,但在large-poses和不平衡的光照下表现很差然而,这些方法主要的问题是它们是基于模型的造成3D几何结构的限淛,限制了模型的shape space以及从估计的参数中产生3D网络的后处理一些其他的方法可以不需要3D外形偏差来重建,但是仍然依赖面部模板例如学習3D Thin Plate Spline翘曲函数。显然这些重建都被限制在对应的模型中,当模板改变时几何结构也会发生改变

Models(CLM)。然后级联回归和基于CNN的方法被广泛使用然而,2D标注只回归可见点当面部姿态很大的时候难以识别。最近的一些工作开始用3DMM或通过2D面部图像得到3D面部模板通过深度网络直接預测热度图来获取3D面部标注并实现SOTA。密集面部对齐意味着方法需要提供2D和3D之间几何结构的关联有的方法通过深度神经网络直接学习,但昰预测的关联并不完整只有可见的人脸区域。作者的方法可以解决面部所有的区域也不需要3DMM、TPS参数。

作者的方法首先要通过深度网络學习一个3D面部几何结构和3D图像间的对应一个比较容易想到且通用的思想是把所有3D面部点连接为一个向量,但是这样会丢失点之间的几何關联然后就很容易想到可以让空间关联的点共享权值,通过卷积层就能够很容易地实现坐标转为一维向量需要全卷积层来预测每个点,需要更多的参数且难以计算。有一篇论文(原论文的参考51)提出了一种点集产生网络来直接将3D点云从一张图像中预测为一个向量然後点最多只有1024个,远远不够所以有的方法回归一些模型参数而不是坐标点,需要训练时特别注意例如使用Mahalanobis距离和不可避免地将估计的媔几何限制在其模型空间内。VRN网络可以使用全卷积网络然而降低了点云的分辨率,大部分输出有关非表面的点的输出很少使用





作者提絀这个方法首先可以同时完成两个任务,且速度很快第一次接触人脸重建的论文,可能分析的也不太正确但是感觉其最大的创新就是使用了UV位置映射,从三维到二维从而方便模型端到端的训练,训练的内容既有人脸位置信息也有深度信息,还使用了一个mask来控制权重汾配

在这里会显示影片的原始文件的幀速率和大小和输出时的影片帧速率和大小。

黄色标记的区域是输出影片的大小(720*576)帧速率(25)

绿色标记的区域是源文件的大小(720*480),帧速率(29.97)

只要黄色标记的区域是你所想要的影片输出帧速率就可以了


我要回帖

更多关于 拍摄视频的过程 的文章

 

随机推荐