栏目分类
人妖 av CVPR 2025:无需物理引擎,一个模子处罚图像渲染与阐明
发布日期:2025-07-06 00:28 点击次数:171
无需物理引擎人妖 av,单个模子也能终了"渲染 + 逆渲染"了!
在打算机图形和视觉规模,渲染是指将 3D 模子酿成传神的 2D 图片,逆渲染则是从 2D 图片分析出 3D 模子的万般属性(如材质、光照等)。
偷偷撸改现时,从材质阐明(逆渲染)——材质裁剪——物体渲染的统共过程,齐被长入到了一个框架中,且在性能方面达到了新 SOTA。
该盘问出自港科大广州以及趣丸科技,他们草创双流扩散框架 Uni-Renderer,将渲染(生成图像)与逆渲染(阐明材质、光照、几何)长入到单一扩散框架,终了"生成即阐明"的闭环才调。
关联遵循已被 CVPR 2025 经受,代码与数据全面开源。
盘问团队暗示,这一遵循改日将重塑影视、游戏、AR/VR 等产业的视觉生成管线。
草创双流扩散框架
正如开端提到,渲染是通过光泽跟踪或旅途跟踪,生成高质料的图像;逆渲染是在 RGB 图像中索取出对象属性,比如金属度、粗略度以及光照细节。
传统递次需独处建模实践渲染器与逆渲染器,打算资本高遵循低泛化差,两个过程也缺少考虑,精度和属性阐明效果齐有限。
而 Uni-Renderer 的双流扩散架构将两个过程建模为双要求生成任务,生成时以材质、光照为要求输出图像,阐明时以图像为要求反推内在属性:
其中渲染流阐发生成 RGB 图像:以 VAE 编码材质、法线、光照为要求,通过扩散过程生成图像,解救动态诊治粗略度 / 金属值(如"光滑棒球"秒变"金属质感")。
而逆渲染流阐发处理内在属性:以图像为输入,通过噪声展望网罗阐明属性, 并在网罗里面进行跨流交互,终了信息传递会通优化协同。
此外,团队还接收了各异化的 timestep 转化政策,通过不同的 timestep 使模子分辨渲染和逆渲染的映射关连,让这两者能更好协同。
终末,鉴于传统逆渲染因"材质 - 光照 - 几何"耦合性导致阐明迷糊。
因此,他们将逆渲染阐明取得的属性,再次输入到渲染模块进行再渲染,并借助轮回照拂确保阐明收尾可重重生成一致图像,绝对告别"阐明即失真"。
实测对比,性能碾压 SOTA
1、材质裁剪人妖 av
对比 Subias(过曝)、InstructPix2Pix(配景空虚),Uni-Renderer 精确阻挡高光与漫反射,如下图中"金属橙子"名义反射环境光照,细节传神。
2、重光照
如下图所示,输入单张图像,径直替换环境光为"夕阳 / 霓虹",模子自动诊治漫反射与镜面反射,光影过渡当然,迥殊 NvDiffRec 的生硬效果。
3、真确场景
下图中,"水壶"逆渲染告捷融会高频环境光,金属质感与粗略度罅隙仅 3%。
综合而言,通过在生成阶段,以材质、光照为要求输出图像;阐明阶段,以图像为要求反推内在属性,遵循晋升了200%。
同期,Uni-Renderer 强制内在属性与图像的一致性,在公开测试集上材质揣测罅隙裁汰 40%,光照阐明 PSNR 晋升 30%。
另外,盘问基于 Objaverse 构建业界最大范围多材质合成数据集,涵盖 20 万 3D 对象、121 种材质 / 光照组合,解救高分辨率(1024 × 1024)实践。模子在未见过的真确场景中(如金属水壶、手机支架)仍能精确阐明高光、粗略度与复杂光照。
在渲染任务中,PSNR 达30.72(对比基线 28.09),逆渲染任务中,材质揣测 MSE 仅0.118(优化递次 0.316);重光照效果迥殊 GaussianShader 等决策,真确感拉满。
开源即用
现时团队对 Uni-renderer 同步进行了开源,包括:
代码库:解救一键实践 / 推理,兼容 PyTorch 生态;
合成数据集:20 万对象 + 百万级材质 - 光照组合,涵盖数理化生多规模;
预实践模子:即插即用于游戏财富生成、影视后期、工业联想等场景。
这项盘问的作家为陈知非 , 许添硕以及葛汶杭,他们是来自于香港科技大学(广州)ENVISION 实验室的博士生,师从陈颖聪教授。
(ENVISION 实验室专注于视觉生成模子的盘问,用功于探索其基快活趣,以提高模子的质料、遵循、万般性和可控性。)
小结一下,Uni-Renderer 的建议,记号着视觉生成与融会从"分而治之"迈入"长入智能"时间。
其双流架构与轮回照拂机制,为跨任务汇集优化提供了全新范式。
改日,团队将进一步会通真确数据,攻克复杂动态场景,让东说念主工智能成为"万能视觉工程师"。
论文流畅:
https://arxiv.org/pdf/2412.15050
GitHub 代码:
https://yuevii.github.io/unirenderer-page/
实验室官网:https://envision-research.hkust-gz.edu.cn/index.html#news
— 完 —
学术投稿请于责任日发邮件到:
ai@qbitai.com
标题注明【投稿】,告诉咱们:
你是谁,从哪来,投稿骨子
附上论文 / 名堂主页流畅,以及考虑样子哦
咱们会(尽量)实时回应你
一键温雅 � � 点亮星标
科技前沿进展逐日见
一键三连「点赞」「转发」「注重心」
接待在辩驳区留住你的思法!人妖 av
下一篇:没有了