0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

3D渲染——光栅化渲染原理解析

OSC开源社区 来源:字节跳动SYS Tech 2023-05-18 17:29 次阅读

前言

随着技术的发展,基于 GPU 的渲染技术得到了广泛应用,日常生活中常见的 3D 动画和游戏都是通过计算机渲染技术来实现。当前主要的 3D 渲染模型包括光栅化渲染和光线追踪两大类,本文主要围绕光栅化渲染进行介绍,描述了简单场景下3D渲染过程,主要帮助读者了解基于光栅化的 3D 渲染原理及过程。本文为系列文章,并在下一篇系列文章中以 Intel Gen12 为例,讲述 GPU 一些基本硬件单元及如何利用硬件加速渲染过程。希望通过这种软件计算 + 硬件实现的方式,让大家了解 GPU 3D 渲染原理及过程。

在开始正式的介绍前,有以下几点说明:

在渲染过程中,涉及到向量、矩阵等数学知识不再阐述。在后面用到的时候会有提及。

文中选择了一个简单的模型场景,过程也尽可能简化。旨在重点讲述光栅化流程,便于读者理解。

推荐课程 GAMES101,文章后面用到的一些图片出自该课件。

光栅化过程

15ff4586-e6a3-11ed-ab56-dac502259ad0.png

图0 光栅化示意图

图0 是光栅化的一个简易图,其中光栅化主要完成以下两个功能:

将几何图元(三角形/多边形)投影到屏幕上

将投影之后的图元分解成片段

模型建立

下文开始举例说明光栅化过程,为了更简单的说明光栅化,我们选用相对简单的模型,在三维空间中存在两个三角形,其中三角形1 三个顶点坐标分别为(-2, 0, -2)、(2, 0, -2)、(0, 2, -2),三角形2 三个顶点坐标分别为(-1, 0.5, -20)、(2.5, 1, -20)、(3, -1.5, -20),之所以后面三角形 z 绝对值比较大,是为了后面观察透视投影近大远小的效果。在模型中,除了被观察物体,还需要确认观察点的位置,这里将相机放在位置(0, 0, 0),观察方向是 z 轴负方向(z-),向上向量为 y 轴正向(y+)。模型如图1所示:

16436428-e6a3-11ed-ab56-dac502259ad0.png

图1 模型顶视图

物体和相机的位置已经放好了,那么我们接下来要做的就是要将相机实际看到的内容最终显示到屏幕上。模型是三维的,而最终的成像是二维,所以这其中必然要有投影操作。

正交投影和透视投影

先来看一下透视投影和正交投影的效果图:

169d48b2-e6a3-11ed-ab56-dac502259ad0.png

图2 透视投影 & 正交投影

对比正交投影和透视投影效果可以发现,透视投影的结果会有近大远小的效果,而正交投影不会。正交投影中,以平行线投射方式投影,在工程制图等场景应用广泛。透视投影这种近大远小的效果和人眼成像效果基本一致,后面主要针对透视投影讲解。也正是因为这种效果,才有了"道理我都懂,可是为什么鸽子这么大"这个梗。绿色的球在视野之外,会被裁剪掉。透视投影本质就是对一个平截头体及平截头体里的物体(图2左半边虚线内部分,包含红球和黄球)做变换,这时候平截头体会被压成长方体(图3-1),变换后的物体也包含在这个长方体中,最终长方体标准化生成[-1, 1] ^ 3标准正方体(图3-2),然后再针对[x, y]平面做投影,投影过程中z轴作为深度覆盖参考。

16b75478-e6a3-11ed-ab56-dac502259ad0.png

图3-1 透视压缩

16d1b4a8-e6a3-11ed-ab56-dac502259ad0.png

图3-2 坐标标准化

再看下面两个效果图:


17364274-e6a3-11ed-ab56-dac502259ad0.gif

图4-2

图4-1铁轨是平行的,但在透视投影的作用下,原本的平行线在远处变得相交。图4-2是观察正交视图和透视视图来对比两者区别,同样,在透视投影下,会有近大远小的效果,(图中四个顶点坐标分别为(-1, 10, -20), (1, 10, -20), (-1, -1, 0), (1, -1, 0),z 轴俯视观察。

关于透视投影部分还有以下几点说明:

这里没有推导透视投影矩阵,而是直接给出了矩阵变换后的效果图,一是希望读者从直观上感受透视投影的效果,二是文章主要内容是光栅化过程的概述,推导不作为重点。如果想了解透视投影的原理,可以学习《GAMES101》或者从《Fundamentals of Computer Graphics》中寻找答案

针对透视投影的效果,最终呈现出来的就是近大远小的视觉效果

无论是正交投影还是透视投影,我们目前做的都是针对几何图形的变换,但是最终的目的是屏幕显示,屏幕显示必然涉及到分辨率和屏幕尺寸。所以,正交投影和透视投影的最后一步都是标准化(图3-2),最终得到[-1, 1] ^ 3的标准立方体。屏幕上的窗口可以是动态变化的,如:400 x 600,600 x 800等,标准化后通过简单平移 + 缩放即可完成视口变换。

结合我们的模型,对两个三角形做透视投影(图5-1),可以看到两个三角形都在平截头体中,做透视投影后(乘透视矩阵)会先得到标准立方体,然后向[x, y]平面投影(暂时忽略z),得到具有近大远小效果的图(图5-2),图5-2动态比对正交投影和透视投影差别,可以很明显看到透视投影之后,z绝对值大的三角形会变小很多。

1756e38a-e6a3-11ed-ab56-dac502259ad0.png

图5-1 包含在平截头体中的三角形

17745ec4-e6a3-11ed-ab56-dac502259ad0.gif

图5-2 最终显示的三角形(透明)

光栅化 & 着色

在透视投影之后,得到的是[-1, -1] ^ 3标准立方体,这一小节要讲的是如何将这个标准立方体投影并绘制在屏幕上。具体过程如下图所示。 17a0ef2a-e6a3-11ed-ab56-dac502259ad0.png

图6-1

图中有如下两点需要注意:

这里先对屏幕做个简单的抽象,将各个像素抽象为正方形,像素中心即为正方形中心,每个小格子就是一个像素,每个小方格子为 1 * 1,像素位于中心,坐标为(x + 0.5, y+0.5)

上一小节提到了透视投影之后,会标准化成 [-1, 1] ^ 3 的标准化立方体,这时先忽略 z 坐标,根据立方体中各个点的 [x, y] 坐标投在屏幕上。当前的[x, y]是标准化坐标,需要做个简单的平移 + 缩放操作,将 x -> width,y -> height,其中 width、height 代表的屏幕中显示窗口大小,这一步叫做视口变换。

回到我们开始的模型,两个三角形,共有 6 个顶点,这里假设所有的图形都不会被裁剪,我们假设三角形三个顶点在在经历透视投影 --> 标准化 --> 视口变换后的坐标与屏幕坐标关系如下图所示(这里是效果示意图,并不是按照上文模型中的坐标得出): 17c17a42-e6a3-11ed-ab56-dac502259ad0.png

图7-1 投影示意图

17dcd684-e6a3-11ed-ab56-dac502259ad0.png

图7-2 包围盒光栅化

17eec0ce-e6a3-11ed-ab56-dac502259ad0.png

图7-3 包围盒光栅化

图7-1在不考虑覆盖的情况下,根据两个三角形各自顶点变换后的结果,确定两个三角形的位置。图7-2、7-3是在确定三角形位置后,根据三角形覆盖的像素对其着色。具体步骤如下(以图7-2为例):

首先根据投影后三个顶点的范围确定一个包围盒,这么做的好处是减少搜索范围。

确定了包围盒后,依次判定包围盒中的像素是否在三角形内,这里可以用向量叉乘方法,根据叉乘方向是否同向判定。

对于包含在三角形内的像素,对其进行着色。着色过程中,涉及到纹理坐标、法向量等要素的计算,图7-2中我们知道投影之后的三个顶点坐标、纹理坐标、法向量,但是无法获得三角形内任一点的这些数据,这时候就会用到三角形的重心坐标,利用重心坐标通过插值的方法获得三角形内任一点的数据。比如已知三角形三个顶点的纹理坐标(u, v),想知道三角形内任一点的纹理坐标,就可以通过该点的重心坐标获取,有一点需要切记,这里所说的重心坐标不是投影后的,而是在做透视投影之前的重心坐标,如果要用投影后的重心坐标,需要做修正。对于三角形内法向量计算也是相同道理。

不过上面的方法仍然存在两个问题:

图7-2、7-3考虑的都只针对自身三角形的光栅化,对于两个三角形的重叠部分没有考虑,后面讲的深度缓冲会解决这个问题。

在判定像素与三角形位置关系时,我们判定的是小方格中心点与三角形关系,即使中心点不在三角形内,像素的小方格子仍然会被三角形覆盖,那么小格子是标记为不亮、还是按照被覆盖的面积来着色,这块如果处理的不好很容易出现锯齿,这里就需要反走样技术,这里不再阐述。

深度缓冲

在透视投影之后得到一个标准正方体,在向 x、y 确定平面投影时会遇到这样的情况,对于两个不同顶点,x、y 相同,z 不同,这时候就要借助深度缓冲方法。不考虑透明效果,上述两个顶点,谁距离摄像机近,后面的就会被遮挡。具体方法如下。 184e5bd8-e6a3-11ed-ab56-dac502259ad0.png

图8-1 深度缓冲原理

在光栅化过程中,被着色的像素会记录当前点在空间中距离摄像机深度,如果再次被着色的时候,会与之前记录的深度值做比对,如果新的值距离摄像机更近,那么会覆盖掉旧的颜色,否则仍然用旧的颜色。这样就解决了点的覆盖问题,上文仅仅是方法上的阐述,还有很多优化空间,比如我们可以提前深度值的判定,对于被覆盖的点省掉不必要的着色操作。图8-2是实例模型执行深度缓冲后的投影结果。

18846138-e6a3-11ed-ab56-dac502259ad0.png

图8-2 最终投影

总结

18992604-e6a3-11ed-ab56-dac502259ad0.png
上图是图形管线的主要过程,对照上文例子中的简单模型阐述各个环节工作:

Vertex Processing: 顶点处理,对空间中顶点进行变换,针对我们例子中简化的两个三角形模型,透视投影包含在顶点变换中。

Rasterization: 光栅化操作,对于我们这个例子就是对两个三角形做透视投影 --> 然后向[x, y]平面做投影 --> 视口变换,然后判定投影后的三角形内包含了多少像素。

Fragment Processing: 像素着色,例子中就是针对投影后两个三角形内的像素进行着色,这里与光照、纹理映射相关,对于三角形任一点的纹理坐标、法向量可以通过三角形顶点的这些信息及三角形重心坐标(透视投影前)计算得到。

Blending: 混合上屏,将最终混合结果填充到图形缓冲区,进而刷到屏幕。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 光栅
    +关注

    关注

    0

    文章

    281

    浏览量

    27475
  • 3D
    3D
    +关注

    关注

    9

    文章

    2860

    浏览量

    107308
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4700

    浏览量

    128672
  • 渲染
    +关注

    关注

    0

    文章

    69

    浏览量

    10906
  • 3d渲染
    +关注

    关注

    0

    文章

    9

    浏览量

    12551

原文标题:3D渲染——光栅化渲染原理解析

文章出处:【微信号:OSC开源社区,微信公众号:OSC开源社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    如何评价光栅渲染中光线在场景中的折返?

    对于那些想要获得现实感的艺术家或开发人员而言,一款可以模拟光在场景中发生相互作用(即光反射、光吸收、光折射等)的渲染器(具有创建视觉效果的功能)十分重要。这就需要在处理每个像素时,对场景有一个全方位的了解,这里不是指最常见的渲染技术,而是需要实时的
    发表于 05-22 10:17 2461次阅读

    渲染工具Luxion.Keyshot.v5.2.10

    渲染工具Luxion.Keyshot.v5.2.10.Win32_64 2CDKeyShot采用了一种全新技术,可在网页上展示产品。KeyShotVRTM能够将产品以互动3D的形式展示出来,任何网页
    发表于 03-07 10:41

    HDC2021技术分论坛:酷炫3D效果在瘦设备上也能实现?

    ,离不开3D渲染引擎。本期,我们就和大家聊一聊HarmonyOS的3D渲染引擎。一、产生背景现有的商业3D引擎,在游戏、工业设计、影视等领域
    发表于 12-21 10:40

    缺少VGlite字体渲染api文档,求分享

    我试图使用 vglite api 在 MIMXRT1166/1176 上使用 verisilicon gpu 渲染图形,并且特别缺乏关于此的文档。 我能够很好地初始 GPU 并渲染矢量和光栅
    发表于 04-24 06:42

    实时光线的混合渲染:光线追踪VS光栅

    ——我们最新的混合渲染演示: 混合光线追踪可以更好地进行渲染 像素阴影最基本的要素便是识别环境:它所处的位置、光线来自哪里,光线是否会受到其他曲面的阻碍或折返回来等等。光栅则不会确定
    发表于 02-23 11:34 2144次阅读

    一种用机器学习进行3D实时渲染的新方法:用paGAN实现3D实时渲染

    下图的左侧是FXGuide编辑Mike Seymour用iPhone拍摄的源视频,右侧是实时渲染CGI。可以发现,Pinscreen的成果确实可以在同一源视频上进行数字构图,为真实人脸生成3D数字掩模。除了混合边缘上的小调整,
    的头像 发表于 08-11 09:27 9151次阅读

    新iPhone和iOS13的3D渲染图抢先看_ios13或将新增夜间模式

    外网PhoneAena联合设计师,综合之前的网曝信息,制作了新iPhone和iOS13的3D渲染图。制作渲染
    的头像 发表于 03-16 10:52 3237次阅读
    新iPhone和iOS13的<b class='flag-5'>3D</b><b class='flag-5'>渲染</b>图抢先看_ios13或将新增夜间模式

    AMD与Pixelary合作,创造了3D渲染照片

    今日 AMD 公布了一组由最新的 Radeon ProRender 2.0 渲染渲染的梅赛德斯 F1 赛车的照片,展现了最新渲染器的效果。AMD 与设计公司 Pixelary 深入合作,为梅赛德斯 AMG F1 W11 EQ
    的头像 发表于 12-19 10:24 1702次阅读

    Realme新机3D渲染图遭曝光 或将定位于低端市场

    Realme新机3D渲染图遭曝光:并非旗舰机型,旗舰机型,手机,摄像头,中端机,realme
    发表于 03-04 11:52 699次阅读

    智慧园区3D可视的特点

    智慧园区3D可视通过3D场景实时渲染和数据建模,展现实时数据,实现可视交互的特点。商迪3D
    发表于 04-16 09:09 1073次阅读

    HarmonyOS 3D渲染引擎介绍

    随着3D技术的应用普及,越来越多的场景都能看到3D的身影,比如充电动效、3D壁纸、游戏等等,给用户带来了更有趣、更丰富的体验。要满足用户的3D体验需求,离不开
    的头像 发表于 12-23 09:49 4262次阅读
    HarmonyOS <b class='flag-5'>3D</b><b class='flag-5'>渲染</b>引擎介绍

    NVIDIA Omniverse助力Epigraph轻松管理3D资产并加快渲染速度

    Omniverse 基于 USD 和 NVIDIA RTX 技术构建,可帮助 Epigraph 轻松管理 3D 资产并加快渲染速度,从而加快工作流程和协作,提高生产力。
    的头像 发表于 04-19 14:05 1142次阅读

    福利 | 3D动画上云渲染,助力CG提升视效

    ,其中不乏 3D渲染技术 —— 《阿凡达》是首个采用3D渲染技术的动画电影,将CG动画人物与实物表演相结合,开启电影的3D技术新时代。 《白
    的头像 发表于 11-17 18:35 1117次阅读
    福利 | <b class='flag-5'>3D</b>动画上云<b class='flag-5'>渲染</b>,助力CG提升视效

    揭秘:实时渲染、离线渲染、云渲染和混合渲染的区别

    遇到这些概念,或者一些3D渲染引擎产品的时候,可以按照这些渲染分类,去快速的进行定位和分析,更好的帮助我们理解和学习。一、实时渲染实时
    的头像 发表于 12-26 08:27 739次阅读
    揭秘:实时<b class='flag-5'>渲染</b>、离线<b class='flag-5'>渲染</b>、云<b class='flag-5'>渲染</b>和混合<b class='flag-5'>渲染</b>的区别

    VIVERSE 推行实时3D渲染: 探索Polygon Streaming技术力量与应用

    在商业领域和娱乐行业中,3D渲染技术一直是推动视觉体验革新的关键力量。随着技术的进步,实时3D渲染技术逐渐成为主流,近期VIVERSE平台对外发布引入一项全新技术——Polygon
    的头像 发表于 05-31 15:49 2292次阅读
    VIVERSE 推行实时<b class='flag-5'>3D</b><b class='flag-5'>渲染</b>: 探索Polygon Streaming技术力量与应用