
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
3D 高斯溅射(3DGS)虽然比 NeRF 快很多,但训练依然要十几分钟,瓶颈在冗余高斯太多、密度控制不合理。现有加速方法要么靠 “预算限制”,要么剪枝太狠掉画质,多视角信息用得很粗糙。本篇文章提出FastGS:一套简单通用的 3DGS 加速框架,基于多视角一致性设计稠密化与剪枝策略,不需要预算机制。在多个数据集上实现3.29×~15.45× 加速,静态场景最快77 秒训完,还能无缝适配动态重建、
基于文本的 3D 场景生成与编辑,在 VR/AR、游戏、数字内容创作中价值巨大。尽管 3D 高斯溅射(3DGS)已实现高保真 + 实时渲染,但现有方法普遍任务专一、框架割裂:生成要逐场景优化、编辑要复杂后处理,缺少一套同时支持生成与编辑的统一方案。为此,本文提出SplatFlow框架:用多视图校正流(RF)模型在潜在空间联合生成多视图图像、深度、相机姿态;用高斯溅射解码器(GSDecoder) 前
现有 3D 高斯溅射在稀疏视图下极易过拟合,主流 Dropout 方法随机丢弃单个高斯,但存在邻居补偿效应—— 被丢弃的高斯会被附近相似高斯 “补回去”,正则化失效。同时,高阶球谐系数(SH)也是过拟合与模型变大的重要原因。本文提出DropAnSH-GS:基于锚点的结构化 Dropout,一次性丢弃锚点 + 邻域高斯,破坏局部冗余;对高阶球谐系数做按阶丢弃,缓解外观过拟合并支持后训练压缩。
3D 高斯泼溅(3DGS)是当前最先进的三维重建技术,兼具高质量、快训练、快渲染优势,但存在明显局限:同一高斯覆盖的像素共享单一颜色(仅含高斯衰减缩放因子),且单个高斯仅能表示简单椭球体。为突破这些限制,该研究将传统图形学的纹理与阿尔法映射融入 3DGS,为每个高斯增加阿尔法、RGB 或 RGBA 纹理图,实现空间变化的颜色与不透明度建模。







