您现在的位置是:首页 >技术教程 >【Unity SRP】实现基础的Temporal AA(未完)网站首页技术教程

【Unity SRP】实现基础的Temporal AA(未完)

九九345 2024-10-04 12:01:05
简介【Unity SRP】实现基础的Temporal AA(未完)

写在前面

【技术美术图形部分】简述主流及新的抗锯齿技术,花了点时间盘点了一些主流AA技术,再在SRP下的URP管线中实现一下目前游戏用得比较多的TAA。参考Unity的TAA(比较容易懂)以及sienaiwun的实现思路,也参考了很多文章(主要是这位大佬),可以说这次实现其实是对目前能找得到的实现思路的大融合!

本文叙述会尽可能多地体现自己的理解,也算是一次学习。

前置知识

SRP?

随意找了篇介绍SRP的,可以看看:Unity URP/SRP 渲染管线浅入深出【匠】

全称,可编程渲染管线。

相信很多人跟我一样,入门阶段一直是基于Unity内置管线(Build-in)开展学习,直到后面接触到了HDRP(高清渲管线)和URP(通用管线),才发现要学的东西还有好多,,,而且不止这些,甚至还要学习和这些光栅化管线完全不同的光追管线,,,自以为“入门了”但其实人还在坑里呢,现在逃还来得及!!!(不是)

回到正题!其实SRP并不可怕,只需要知道有了它我们可以通过C#脚本调用封装的API来创建自定义管线,渲染流程可自定和修改——就能实现管线定制了,没有Build-in那么死板。URP和HDRP就是两个Unity基于SRP为我们拓展的管线模板,URP难就难在一些函数名称完全被更改,还需要重写函数。

我学习SRP的思路一直都是以实现某种功能为目标,尝试在SRP搭建管线(之前做过URP下实现毛玻璃),以及这一篇SRP下自定义管线实现TAA。刚入门啥都不会的跟着官方阿b发的视频做一次:URP系列教程 | 如何使用Scriptable Renderer Feature来自定义后处理效果

说得挺乱的,总之一句话:SRP和固定管线绝对不是完全割裂的,遇到新管线不需要害怕,学就完事了。

Volume组件

这部分可以看看:如何扩展Unity URP的后处理Volume组件

实现TAA还需要了解URP的Volume组件——URP实现屏幕后处理的核心组件,我们可以通过Volume组件下的Add Override添加屏幕后处理效果

我们如果想实现TAA,也需要添加一个类似“TAA开关”的东西,意味着我们需要去拓展Volume Overide,简单来讲就是再写一个TAA,cs的实现脚本。

TAA实现思路

强烈建议看完这个篇文章:DX12渲染管线(2) - 时间性抗锯齿(TAA)


RenderFeature实现TAA

TemporalAA需要处理静止和动态画面,而动态需要解决残影问题,参考大部分文章的思路,本文也将通过RendererFeature去实现TAA,实现过程的话需要以下三个部分,

  • 处理渲染管线
  • 处理Global Volume
  • Shader实现TAA混合

整体框架如下:

大概思路:首先,我们需要创建TAARendererFeature.csRenderer

再把RendererFeature给Add一下Renderer, 

然后在这个RenderFeature里生成相机抖动值,通过一个TAARenderPass.cs实现最终的画面渲染 。还需要一个专门的抖动相机的Pass,CameraSettingPass.cs,用于改变相机的透视变换矩阵(后面会讲到)。此外还需要给Global Volume加上自定义的TAA,那就又要创建一个TAA.cs文件,作为一个TAA开关。

于是细化的话,步骤主体包括以下脚本

  • 一个RendererFeature类:TAARendererFeature.cs
  • 一个RenderPass类:TAARenderPass.cs
  • 一个RenderPass类:CameraSettingPass.cs
  • 与Global Volume搭接:TAA.cs

对框架做一个简单的概述后,开始从实现静态场景的TAA出发,一点一点写脚本和shader:

1 静态场景

静态场景理解起来很容易,需要在下一帧渲染时将采样上一帧的子像素点偏移,确保每一帧偏移不同位置,最终取全部帧的平均值,整个过程涉及到以下两点,

  • 抖动采样——如何进行采样偏移?
  • 历史帧混合——如何混合历史帧得到平均值?

1.1 抖动采样

采样方法

在采样点个数上,TAA和传统超采样的想法是一致的——生成更多的采样点以获得更加细致的采样效果,但因为是逐帧抖动再取所有的均值,除了每一帧的空间上采样还涉及逐帧的时间上采样,所以采样方法也涉及到两个方面

  • 空间上——我们希望采样点不能太过随机,不然总会有堆叠的情况
  • 时间上——我们希望逐帧也能够均匀分布

最后我选取的采样方法参考了这篇文章:采用Stratified sampler进行空间上的采样(有时间的话还可以拿box和泊松给它对比一下),时间上选择了前8个halton(2,3)进行相机抖动:

截图自 EPIC UE4
截图自 NVIDA TXAA

先看看如何生成Halton序列吧,我并没有单独设一个Halton数列的Class,而是参考大佬思路囊括进了RendererFeature中,浅看一下:

    // 抖动用的Halton
    // 这里直接照搬大佬设置的函数了,没多余时间细究了orz
    private float HaltonSeq(int prime, int index = 1/* NOT! zero-based */)
    {
        float r = 0.0f;
        float f = 1.0f;
        int i = index;
        while (i > 0)
        {
            f /= prime;
            r += f * (i % prime);
            i = (int)Mathf.Floor(i / (float)prime);
        }
        return r;
    }

上述代码的生成Halton序列的方法中i指的就是序列的第几位数,再根据Halton数列计算抖动值,实现是在TAARendererFeature的AddRenderPasses()方法中实现,其中haltonIndex初始值为0:

// 获取Offset值
            if(++haltonIndex >= max_SampleCount)
            {
                haltonIndex = 0;
            }
            haltonIndex = (haltonIndex + 1) & 1023;
            Vector2 offset = new Vector2(
                HaltonSeq(2, haltonIndex + 1) - 0.5f,
                HaltonSeq(3, haltonIndex + 1) - 0.5f);

【偏题】采样在图形学中是十分常见的部分,随机数影响着样本的分布,我参考的文章中提到了这篇文章:低差异序列(一)- 常见序列的定义及性质,打开新世界大门,这里展示出来,也给自己码一下吧,有机会一定拜读。

Jitter视锥体

我们需要逐帧偏移采样点,这个offset需要发生在几何阶段之后的光栅化阶段,也就是屏幕映射之后。上述的“相机抖动”并不是偏移相机的位置,而是视锥中心动、基于视锥底部偏移一定的Offset,还原到世界空间就是下图:

所以说,我们改动的其实是Project矩阵,搬运其他大佬对偏移如何转化为修改矩阵的解释:

截图自 Unity TAA实现杂记 | Blurred code

实现这个点,我们需要在TAARendererFeature中封装一个变换矩阵函数:

// 变换矩阵
    private Matrix4x4 GetJitteredProjectionMatrix(Camera camera, Vector2 offset, Vector2 jitterIntensity)
    {
        Matrix4x4 originalProjMatrix = camera.nonJitteredProjectionMatrix;

        float near = camera.nearClipPlane;
        float far = camera.farClipPlane;
        Vector2 matrixOffset = offset * new Vector2(1f / camera.pixelWidth, 1f / camera.pixelHeight) * jitterIntensity;
        //[row, column]
        originalProjMatrix[0, 2] = matrixOffset.x;
        originalProjMatrix[1, 2] = matrixOffset.y;
        return originalProjMatrix;
    }

接下来就是在渲染场景前,通过CommandBuffer.SetViewProjectionMatrices修改相机的VP矩阵了,这部分在CameraSettingPass里实现,

// 修改用于渲染的VP矩阵
            cmd.SetViewProjectionMatrices(cameraData.camera.worldToCameraMatrix, m_TAAData.jitteredProj);

这里的m_TAAData是额外的一个用于传递参数的类,既然这里涉及了,那也把TAAData的脚本展示一下:

脚本TAAData.cs

其中jitteredProj就是在TAARendererFeature中定义的,把变换矩阵传递给CameraSettingPass

public class TAAData
{
    public Vector2 offset;
    public Vector2 lastOffset; // 储存上一帧的Offset
    public Matrix4x4 lastProj;
    public Matrix4x4 lastView;
    public Matrix4x4 jitteredProj;
    public Matrix4x4 currentView;

    public void Initialize()
    {
        offset = Vector2.zero;
        lastOffset = Vector2.zero;
        lastProj = Matrix4x4.identity;
        lastView = Matrix4x4.identity;
        jitteredProj = Matrix4x4.identity;
        currentView = Matrix4x4.identity;
    }
}

再把计算得到的Offset值、变换矩阵、传递给TAAData就行了,这个部分还需要结合接下来要说1.2 混合历史帧。

脚本CameraSettingPass.cs

至此可以展示一下整个CameraSettingPass的样子了:

public class CameraSettingPass : ScriptableRenderPass
{
    // Profiling上显示
    ProfilingSampler m_ProfilingSampler;
    string m_ProfilerTag = "CameraSetting";
    TAAData m_TAAData;

    private TAARendererFeature.TAAData taaData;

    internal CameraSettingPass()
    {
        renderPassEvent = RenderPassEvent.BeforeRenderingOpaques;
    }

    // 非RenderPass的重写函数,是我们自定义的,用以传递参数
    // 这里传递的是TAAData
    internal void Setup(TAAData data)
    {
        m_TAAData = data;
    }

    public override void Execute(ScriptableRenderContext context, ref RenderingData renderingData)
    {
        CommandBuffer cmd = CommandBufferPool.Get(m_ProfilerTag);

        using (new ProfilingScope(cmd, m_ProfilingSampler))
        {
            context.ExecuteCommandBuffer(cmd);
            cmd.Clear();
            CameraData cameraData = renderingData.cameraData;
            // 修改用于渲染的VP矩阵
            cmd.SetViewProjectionMatrices(cameraData.camera.worldToCameraMatrix, taaData.jitteredProj);
        }
        // 执行
        context.ExecuteCommandBuffer(cmd);
        // 回收
        CommandBufferPool.Release(cmd);
    }
}

脚本TAARendererFeature.cs

1.2 历史帧混合

混合方式

已经实现了相机抖动,最终我们还需要将不同采样点渲染的画面混合,也就是混合N个历史帧。

那么采取什么样的混合方式呢?

最最简单的方法就是直接取均值,(第8帧+前7帧结果)/8,这样开销很大。换一种思路:取当前帧的结果与前一帧的结果按一定比例混合,有递归那味儿了!

那么如何实现?按什么比例?为什么能这样按比例混合?还是搬运其他大佬的解释:

截图自 参考文章

这里混合系数alpha对效果也是有影响的。

RT储存历史帧

为了储存历史帧,需要一张能长期使用的RT——Motion Vector RT,Motion Vector是一个RGHalf(或RGFloat)的双通道贴图,储存的是当前像素点与上一帧的区别。通过这个RT找到上一帧的当前像素信息,混合。

2 动态场景

静态场景直接supersampling就可以解决了,那动态场景涉及到两个方面,

  • 摄像机移动
  • 场景中物体移动

一旦画面有移动,场景中某点位置会发生变化。如果继续用原屏幕位置混合,会出现问题,这个时候怎么实现抗锯齿?

这牵扯到很多技术,我们一步一步来。

2.1 Reprojection

考虑镜头移动:

这里就要用到Reprojection方法:渲染当前帧(N位置)时需要乘以当前帧的VP矩阵的逆,再乘以上一帧(N-1位置)的VP矩阵,齐次除法变换到上一帧的裁剪空间,就知道当前帧的N位置(UV)在上一帧画面中的位置(lastUV)了。这一步体现在我们最后的TAAShader的fragment shader里:

// Reprojeciton
float4 worldPos = mul(UNITY_MATRIX_I_VP, positionNDC);
worldPos /= worldPos.w;
float4 lastPositionCS = mul(_LastViewProj, worldPos);
float2 lastUV = lastPositionCS.xy / lastPositionCS.w;
lastUV = lastUV * 0.5 + 0.5;

消除Jitter影响

还需要还原抖动,不然画面会模糊,这时TAAData里储存的lastOffset就派上用场啦!如下(直接复制的格式乱套了orz):

float2 sampleUV = input.texcoord;
                float2 currentOffset = _TAAOffsets.xy; // 上一帧的Offset
                float2 lastOffset = _TAAOffsets.zw; // 当前帧Offset

                float2 unJitteredUV = sampleUV - 0.5 * currentOffset; // 还原Offset
                ...

                // 采样当前深度贴图
                float depthTexture = _CameraDepthTexture.SampleLevel(sampler_PointClamp, unJitteredUV, 0).r;
                float4 positionNDC = float4(sampleUV * 2 - 1, depthTexture, 1);
                #if UNITY_UV_STARTS_AT_TOP
                positionNDC.y = -positionNDC.y;
                #endif

                // Reprojeciton
                float4 worldPos = mul(UNITY_MATRIX_I_VP, positionNDC);
                worldPos /= worldPos.w;
                float4 lastPositionCS = mul(_LastViewProj, worldPos);
                float2 lastUV = lastPositionCS.xy / lastPositionCS.w;
                lastUV = lastUV * 0.5 + 0.5;
                // 用当前帧在上一帧(累积帧)的位置采样累积帧画面
                float3 accumTexture = _AccumTexture.SampleLevel(sampler_LinearClamp, lastUV, 0).rgb;

但是这有个问题,,只是简单的使用上一帧的VP矩阵进行reprojection,仅适用于静态场景下的动态摄像机。对于动态场景下的动态摄像机该怎么办?

2.2 Neighborhood Clipping

镜头移动还要考虑一种情况:遮挡问题,如果不考虑遮挡,会出现残影:

下图解释了这个现象出现的原因: 

由于我们直接混合了历史帧,导致上一帧被遮挡的东西这一帧突然出现,或者这一帧本来应该有的东西被遮挡。

解决这一问题,基于邻近像素色彩的 Neighborhood Clamping 是目前比较主流的 TAA 历史帧约束方案:就是限制历史采样的颜色范围,把历史帧采样结果clamp到一个范围(AABB给它包围起来)。

进一步优化:NIVIDA又提出了更好的方法,Variance clipping,缩小了AABB的尺寸。具体方法详见DX12渲染管线(2) - 时间性抗锯齿(TAA)在 Unity SRP 实现 Temporal Anti-aliasing,理论方面不太想赘述了,,直接上代码:

            float3 clip_aabb(float3 aabb_min, float3 aabb_max, float3 avg, float3 input_texel)
            {
                // clip to center:
                float3 p_clip = 0.5 * (aabb_max + aabb_min);
                float3 e_clip = 0.5 * (aabb_max - aabb_min) + FLT_EPS;
                
                float3 v_clip = input_texel - p_clip;
                float3 v_unit = v_clip / e_clip;
                float3 a_unit = abs(v_unit);
                float ma_unit = max(a_unit.x, max(a_unit.y, a_unit.z));

                if (ma_unit > 1.0){
                    return p_clip + v_clip / ma_unit;
                } else{
                    return input_texel; // 在AABB里
                }
            }

Variance clipping:

参考了DX12渲染管线(2) - 时间性抗锯齿(TAA)的思路:

                // Variance clip
                float3 m1 = 0, m2 = 0;
                for(int k=0; k<9; k++) {
                    float3 c = _MainTex.Sample(sampler_PointClamp, unJitteredUV, kOffsets3x3[k]);
                    m1 += c;
                    m2 += c * c;
                }
                float3 mu = m1 / 9;
                // 估算的 sigma
                // 关于正确的sigma可以参考:https://gist.github.com/BlurryLight/145131dbacac34345908c529a3488e8f
                float3 sigma = sqrt(abs(m2 / 9 - mu * mu));

                #define VarianceClipGamma 1.0F
                float3 minc = mu - VarianceClipGamma * sigma;
                float3 maxc = mu + VarianceClipGamma * sigma;

                prevColor = ClipAABB(minc, maxc, prevColor, mu);

其中,

            float du = _TextureSize.z;
            float dv = _TextureSize.w;

            float2 kOffsets3x3[9] =
            {
                float2(-du, -dv),
                float2(0, -dv),
                float2(du, -dv),
                float2(-du, 0),
                float2(0, 0),
                float2(du, 0),
                float2(-du, dv),
                float2(0, dv),
                float2(du, dv)
            }

2.3 Fluckering 高光闪烁问题

镜头不动的时候,会有高光(高频着色区域)闪烁问题。

这个问题其实我也只是复述了各大文章里提到的,其实自己并没有真的看到过,计划给他实现之后看看能不能贴个闪烁的图出来吧。

参考

大佬文章

在Unity SRP中实现TAA效果 | ZZNEWCLEAR13

在 Unity SRP 实现 Temporal Anti-aliasing - 知乎 (zhihu.com)

Unity Temporal AA的改进与提高 - 知乎 (zhihu.com)

Unity TAA实现杂记 | Blurred code

Raphael2048/AntiAliasing (github.com)

DX12渲染管线(2) - 时间性抗锯齿(TAA) - 知乎 (zhihu.com)

处理方案

EPIC:TAA

在SIGGRAPH2014上分享了UE4的TAA抗锯齿技术:

High Quality Temporal Supersampling

NIVIDA:TXAA

GDC2016上分享了TXAA,是优化版的TAA吧,解决了一些TAA

Slide 1 (nvidia.cn)

PLAYDEAD

GDC Vault - Temporal Reprojection Anti-Aliasing in INSIDE

PlayDead提供了TAA源码

风语者!平时喜欢研究各种技术,目前在从事后端开发工作,热爱生活、热爱工作。