
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
首先需要确定当前外参是w2c还是c2w,一般数据集中提供的都是w2c矩阵,因为这个矩阵是用于将世界坐标系的网格投影到相机坐标系中。确定好了是w2c之后,由于opencv和opengl的y轴和z轴的方向是相反的,因此只需要将对应坐标轴反过来即可。
DECA(Detailed Expression Capture and Animation)目标在弱监督的情况下训练一个从单张2D图片到3D人脸转换的模型。并且3D人脸可以生成真实的动画。动机基本就是为了提升FLAME的效果。基础的FLAME模型会受限于网格密度而丢失一些面部细节,例如皱纹。而DECA就是为了在这方面提升。主要思想同一个人在不同表情下,面部细节是有区别的(例如皱纹),但是与此同时
本文做的是基于单图的无监督3D物体重建。文中模型不需要配对的2D图像与3D扫描结果,不需要landmark,不需要多视角图像,也不需要参数化模型,更不需要手工定义的模板,完全从零开始重建一个3D物体。只有一个约束,就是输入的所有图片需要是同一类物体(比如全是车,全是鸟,或者全是马等等)。本文主要的思想是将同一类物体通过语义分割建立联系,通过3D模板(初始模板就是一个球)与语义分割模型相互之间的促进
本文的亮点在于引入了3D模型,将2D图像转换为UV map,从而获得输入脸和参考脸之间的对应性。另外,还额外设计了一套模型用于学习装饰性妆容(区别于修饰性妆容)如上图所示,原始脸和参考脸都会用PRNet(一个3D重建模型)来提取UV纹理图。原始脸还会提取一个UV位置图,用于从UV纹理图到原始2D图的重构。文中将妆容分成了两类:颜色转移即修饰性妆容,就是一般人们会画的妆容,用于修饰面部细节。具体的方
目前 3D 学习中,物体或场景的表示包括显式表示与隐式表示两种,主流的显式表示包括基于 voxel、基于 point cloud、和基于 polygon mesh 三种,隐式表示包括基于 Occupancy Function [1]、和基于 Signed Distance Functions [2] 两种。下表简要总结了各种表示方法的原理及其相应优缺点。1.1 Voxel表示图像:表示原理:体素用
本文提出了一种基于3D高斯体进行场景重建的方案,并提供了高效的渲染器实现。其重建精度,训练速度和推理速度均超越之前的SOTA方案。整体的思路就是先使用传统方案(COLMAP)将多视角图像对齐,并提取稀疏点云。然后以这些点为基础构建高斯体,在训练中动态的增减高斯体的数量和半径。之后对高斯体进行渲染,获得最终的重建结果。
之前有写过attention和transformer的理解,但是对于self attention中的qkv一直理解的不够透彻,直到今天看了李宏毅的视频才理解,所以记录一下。所谓QKV也就是Q(Query),K(Key),V(Value)首先回顾一下self-attention做的是什么:所谓自注意力,也就是说我们有一个序列X,然后我们想要算出X对X自己的注意力,也即X中的每个时间点与其余时...







