DirectX11 With Windows SDK--23 立方體映射:動態天空盒的實現

前言

上一章的靜態天空盒已經可以滿足絕大部分日常使用了。但對於自帶反射/折射屬性的物體來說,它需要依賴天空盒進行繪製,但靜態天空盒並不會記錄周邊的物體,更不用說正在其周圍運動的物體了。因此我們需要在運行期間構建動態天空盒,將周邊物體繪製入當前的動態天空盒。

沒了解過靜態天空盒的讀者請先移步到下面的鏈接

章節回顧
22 立方體映射:靜態天空盒的讀取與實現

DirectX11 With Windows SDK完整目錄

Github項目源碼

歡迎加入QQ羣: 727623616 可以一起探討DX11,以及有什麼問題也可以在這裏彙報。

動態天空盒

現在如果我們要讓擁有反射/折射屬性的物體映射其周圍的物體和天空盒的話,就需要在每一幀重建動態天空盒,具體做法爲:在每一幀將攝像機放置在待反射/折射物體中心,然後沿着各個座標軸渲染除了自己以外的所有物體及靜態天空盒共六次,一次對應紋理立方體的一個面。這樣繪製好的動態天空盒就會記錄下當前幀各物體所在的位置了。

但是這樣做會帶來非常大的性能開銷,加上動態天空盒後,現在一個場景就要渲染七次,對應七個不同的渲染目標!如果要使用的話,儘可能減少所需要用到的動態天空盒數目。對於多個物體來說,你可以只對比較重要,關注度較高的反射/折射物體使用動態天空盒,其餘的仍使用靜態天空盒,甚至不用。畢竟動態天空盒也不是用在場景繪製,而是在物體上,可以不需要跟靜態天空盒那樣大的分辨率,通常情況下設置到256x256即可.

資源視圖(Resource Views)回顧

由於動態天空盒的實現同時要用到渲染目標視圖(Render Target View)深度模板視圖(Depth Stencil View)着色器資源視圖(Shader Resource View),這裏再進行一次回顧。

由於資源(ID3D11Resource)本身的類型十分複雜,比如一個ID3D11Texture2D本身既可以是一個紋理,也可以是一個紋理數組,但紋理數組在元素個數爲6時有可能會被用作立方體紋理,就這樣直接綁定到渲染管線上是無法確定它本身究竟要被用作什麼樣的類型的。比如說作爲着色器資源,它可以是Texture2D, Texture2DArray, TextureCube的任意一種。

因此,我們需要用到一種叫資源視圖(Resource Views)的類型,它主要有下面4種功能:

  1. 綁定要使用的資源
  2. 解釋該資源具體會被用作什麼類型
  3. 指定該資源的元素範圍,以及紋理的子資源範圍
  4. 說明該資源最終在渲染管線上的用途

渲染目標視圖用於將渲染管線的運行結果輸出給其綁定的資源,即僅能設置給輸出合併階段。這意味着該資源主要用於寫入,但是在進行混合操作時還需要讀取該資源。通常渲染目標是一個二維的紋理,但它依舊可能會綁定其餘類型的資源。這裏不做討論。

深度/模板視圖同樣用於設置給輸出合併階段,但是它用於深度測試和模板測試,決定了當前像素是通過還是會被拋棄,並更新深度/模板值。它允許一個資源同時綁定到深度模板視圖和着色器資源視圖,但是兩個資源視圖此時都是隻讀的,深度/模板視圖也無法對其進行修改,這樣該紋理就還可以綁定到任意允許的可編程着色器階段上。如果要允許深度/模板緩衝區進行寫入,則應該取消綁定在着色器的資源視圖。

着色器資源視圖提供了資源的讀取權限,可以用於渲染管線的所有可編程着色器階段中。通常該視圖多用於像素着色器階段,但要注意無法通過着色器寫入該資源。

DynamicSkyRender類

該類繼承自上一章的SkyRender類,用以支持動態天空盒的相關操作。


class DynamicSkyRender : public SkyRender
{
public:
    DynamicSkyRender(ComPtr<ID3D11Device> device,
        ComPtr<ID3D11DeviceContext> deviceContext,
        const std::wstring& cubemapFilename,
        float skySphereRadius,      // 天空球半徑
        int dynamicCubeSize,        // 立方體棱長
        bool generateMips = false); // 默認不爲靜態天空盒生成mipmaps
                                    // 動態天空盒必然生成mipmaps

    DynamicSkyRender(ComPtr<ID3D11Device> device,
        ComPtr<ID3D11DeviceContext> deviceContext,
        const std::vector<std::wstring>& cubemapFilenames,
        float skySphereRadius,      // 天空球半徑
        int dynamicCubeSize,        // 立方體棱長
        bool generateMips = false); // 默認不爲靜態天空盒生成mipmaps
                                    // 動態天空盒必然生成mipmaps


    // 緩存當前渲染目標視圖
    void Cache(ComPtr<ID3D11DeviceContext> deviceContext, BasicEffect& effect);

    // 指定天空盒某一面開始繪製,需要先調用Cache方法
    void BeginCapture(ComPtr<ID3D11DeviceContext> deviceContext, BasicEffect& effect, D3D11_TEXTURECUBE_FACE face,
        const DirectX::XMFLOAT3& pos, float nearZ = 1e-3f, float farZ = 1e3f);

    // 恢復渲染目標視圖及攝像機,並綁定當前動態天空盒
    void Restore(ComPtr<ID3D11DeviceContext> deviceContext, BasicEffect& effect, const Camera& camera);

    // 獲取動態天空盒
    // 注意:該方法只能在
    ComPtr<ID3D11ShaderResourceView> GetDynamicTextureCube();

    // 獲取當前用於捕獲的天空盒
    const Camera& GetCamera() const;

private:
    void InitResource(ComPtr<ID3D11Device> device, int dynamicCubeSize);

private:
    ComPtr<ID3D11RenderTargetView>      mCacheRTV;      // 臨時緩存的後備緩衝區
    ComPtr<ID3D11DepthStencilView>      mCacheDSV;      // 臨時緩存的深度/模板緩衝區
    
    FirstPersonCamera                   mCamera;                // 捕獲當前天空盒其中一面的攝像機
    ComPtr<ID3D11DepthStencilView>      mDynamicCubeMapDSV;     // 動態天空盒渲染對應的深度/模板視圖
    ComPtr<ID3D11ShaderResourceView>    mDynamicCubeMapSRV;     // 動態天空盒對應的着色器資源視圖
    ComPtr<ID3D11RenderTargetView>      mDynamicCubeMapRTVs[6]; // 動態天空盒每個面對應的渲染目標視圖
    
};

構造函數在完成靜態天空盒的初始化後,就會調用DynamicSkyRender::InitResource方法來初始化動態天空盒。

Render-To-Texture 技術

因爲之前的個人教程把計算着色器給跳過了,Render-To-Texture剛好又在龍書裏的這章,只好把它帶到這裏來講了。

在我們之前的程序中,我們都是渲染到後備緩衝區裏。經過了這麼多的章節,應該可以知道它的類型是ID3D11Texture2D,僅僅是一個2D紋理罷了。在d3dApp類裏可以看到這部分的代碼:

// 重設交換鏈並且重新創建渲染目標視圖
ComPtr<ID3D11Texture2D> backBuffer;
HR(mSwapChain->ResizeBuffers(1, mClientWidth, mClientHeight, DXGI_FORMAT_R8G8B8A8_UNORM, 0));   // 使用了Direcr2D交互時則爲DXGI_FORMAT_B8G8R8A8_UNORM
HR(mSwapChain->GetBuffer(0, __uuidof(ID3D11Texture2D), reinterpret_cast<void**>(backBuffer.GetAddressOf())));
HR(md3dDevice->CreateRenderTargetView(backBuffer.Get(), 0, mRenderTargetView.GetAddressOf()));
backBuffer.Reset();

這裏渲染目標視圖綁定的是重新調整過大小的後備緩衝區。然後把該視圖交給輸出合併階段:

// 將渲染目標視圖和深度/模板緩衝區結合到管線
md3dImmediateContext->OMSetRenderTargets(1, mRenderTargetView.GetAddressOf(), mDepthStencilView.Get());

這樣經過一次繪製指令後就會將管線的運行結果輸出到該視圖綁定的後備緩衝區上,待所有繪製完成後,再調用IDXGISwapChain::Present方法來交換前/後臺以達到畫面更新的效果。

如果渲染目標視圖綁定的是新建的2D紋理,而非後備緩衝區的話,那麼渲染結果將會輸出到該紋理上,並且不會直接在屏幕上顯示出來。然後我們就可以使用該紋理做一些別的事情,比如綁定到着色器資源視圖供可編程着色器使用,又或者將結果保存到文件等等。

雖然這個技術並不高深,但它的應用非常廣泛:

  1. 小地圖的實現
  2. 陰影映射(Shadow mapping)
  3. 屏幕空間環境光遮蔽(Screen Space Ambient Occlusion)
  4. 利用天空盒實現動態反射/折射(Dynamic reflections/refractions with cube maps)

DynamicSkyRender::InitResource方法--初始化動態紋理立方體資源

創建動態紋理立方體和對應渲染目標視圖、着色器資源視圖

在更新動態天空盒的時候,該紋理將會被用做渲染目標;而完成渲染後,它將用作着色器資源視圖用於球體反射/折射的渲染。因此它需要在BindFlag設置D3D11_BIND_RENDER_TARGETD3D11_BIND_SHADER_RESOURCE


void DynamicSkyRender::InitResource(ComPtr<ID3D11Device> device, int dynamicCubeSize)
{
    //
    // 1. 創建紋理數組
    //

    ComPtr<ID3D11Texture2D> texCube;
    D3D11_TEXTURE2D_DESC texDesc;

    texDesc.Width = dynamicCubeSize;
    texDesc.Height = dynamicCubeSize;
    texDesc.MipLevels = 0;
    texDesc.ArraySize = 6;
    texDesc.SampleDesc.Count = 1;
    texDesc.SampleDesc.Quality = 0;
    texDesc.Format = DXGI_FORMAT_R8G8B8A8_UNORM;
    texDesc.Usage = D3D11_USAGE_DEFAULT;
    texDesc.BindFlags = D3D11_BIND_RENDER_TARGET | D3D11_BIND_SHADER_RESOURCE;
    texDesc.CPUAccessFlags = 0;
    texDesc.MiscFlags = D3D11_RESOURCE_MISC_GENERATE_MIPS | D3D11_RESOURCE_MISC_TEXTURECUBE;
    
    // 現在texCube用於新建紋理
    HR(device->CreateTexture2D(&texDesc, nullptr, texCube.ReleaseAndGetAddressOf()));

    // ...

MipLevels設置爲0是要說明該紋理將會在後面生成完整的mipmap鏈,但不代表創建紋理後立即就會生成,需要在後續通過GenerateMips方法纔會生成出來。爲此,還需要在MiscFlags設置D3D11_RESOURCE_MISC_GENERATE_MIPS。當然,把該紋理用作天空盒的D3D11_RESOURCE_MISC_TEXTURECUBE標籤也不能漏掉。

接下來就是創建渲染目標視圖的部分,紋理數組中的每個紋理都需要綁定一個渲染目標視圖:

    //
    // 2. 創建渲染目標視圖
    //

    D3D11_RENDER_TARGET_VIEW_DESC rtvDesc;
    rtvDesc.Format = texDesc.Format;
    rtvDesc.ViewDimension = D3D11_RTV_DIMENSION_TEXTURE2DARRAY;
    rtvDesc.Texture2DArray.MipSlice = 0;
    // 一個視圖只對應一個紋理數組元素
    rtvDesc.Texture2DArray.ArraySize = 1;

    // 每個元素創建一個渲染目標視圖
    for (int i = 0; i < 6; ++i)
    {
        rtvDesc.Texture2DArray.FirstArraySlice = i;
        HR(device->CreateRenderTargetView(
            texCube.Get(),
            &rtvDesc,
            mDynamicCubeMapRTVs[i].GetAddressOf()));
    }
    
    // ...

最後就是爲整個紋理數組以天空盒的形式創建着色器資源視圖:

    //
    // 3. 創建着色器目標視圖
    //

    D3D11_SHADER_RESOURCE_VIEW_DESC srvDesc;
    srvDesc.Format = texDesc.Format;
    srvDesc.ViewDimension = D3D11_SRV_DIMENSION_TEXTURECUBE;
    srvDesc.TextureCube.MostDetailedMip = 0;
    srvDesc.TextureCube.MipLevels = -1;     // 使用所有的mip等級

    HR(device->CreateShaderResourceView(
        texCube.Get(),
        &srvDesc,
        mDynamicCubeMapSRV.GetAddressOf()));

到這裏還沒有結束。

爲動態天空盒創建深度緩衝區和視口

通常天空盒的面分辨率和後備緩衝區的分辨率不一致,這意味着我們還需要創建一個和天空盒表面分辨率一致的深度緩衝區(無模板測試):

    //
    // 4. 創建深度/模板緩衝區與對應的視圖
    //

    texDesc.Width = dynamicCubeSize;
    texDesc.Height = dynamicCubeSize;
    texDesc.MipLevels = 0;
    texDesc.ArraySize = 1;
    texDesc.SampleDesc.Count = 1;
    texDesc.SampleDesc.Quality = 0;
    texDesc.Format = DXGI_FORMAT_D32_FLOAT;
    texDesc.Usage = D3D11_USAGE_DEFAULT;
    texDesc.BindFlags = D3D11_BIND_DEPTH_STENCIL;
    texDesc.CPUAccessFlags = 0;
    texDesc.MiscFlags = 0;

    ComPtr<ID3D11Texture2D> depthTex;
    device->CreateTexture2D(&texDesc, nullptr, depthTex.GetAddressOf());

    D3D11_DEPTH_STENCIL_VIEW_DESC dsvDesc;
    dsvDesc.Format = texDesc.Format;
    dsvDesc.Flags = 0;
    dsvDesc.ViewDimension = D3D11_DSV_DIMENSION_TEXTURE2D;
    dsvDesc.Texture2D.MipSlice = 0;

    HR(device->CreateDepthStencilView(
        depthTex.Get(),
        &dsvDesc,
        mDynamicCubeMapDSV.GetAddressOf()));

同樣,視口也需要經過適配。不過之前的攝像機類可以幫我們簡化一下:

    //
    // 5. 初始化視口
    //

    mCamera.SetViewPort(0.0f, 0.0f, static_cast<float>(dynamicCubeSize), static_cast<float>(dynamicCubeSize));
}

動態天空盒的繪製

講完了初始化的事,就要開始留意幀與幀之間的動態天空盒渲染操作了。除了繪製部分以外的操作都交給了DynamicSkyRender類來完成。總結如下(粗體部分爲該方法完成的任務):

  1. 緩存設備上下文綁定的後備緩衝區、深度/模板緩衝區
  2. 清空設置在像素着色器的着色器資源視圖(綁定了動態天空盒資源)
  3. 對準某一個座標軸,以90度垂直視野(FOV),1.0f的寬高比架設攝像機,並調整視口
  4. 清理當前天空盒面對應的紋理和深度緩衝區,並綁定到設備上下文
  5. 和往常一樣繪製物體和靜態天空盒
  6. 回到步驟3,繼續下一個面的繪製,直到6個面都完成渲染
  7. 爲設備上下文恢復後備緩衝區、深度/模板緩衝區並釋放內部緩存(防止交換鏈ResizeBuffer時因爲引用的遺留出現問題)
  8. 讓動態天空盒生成mipmap鏈,並將其綁定到像素着色器
  9. 利用動態天空盒繪製反射/折射物體,和往常一樣繪製剩餘物體,並利用靜態天空盒繪製天空

DynamicSkyRender::Cache方法--緩存渲染目標視圖

該方法對應上面所說的第1,2步:

void DynamicSkyRender::Cache(ComPtr<ID3D11DeviceContext> deviceContext, BasicEffect& effect)
{
    deviceContext->OMGetRenderTargets(1, mCacheRTV.GetAddressOf(), mCacheDSV.GetAddressOf());

    // 清掉綁定在着色器的動態天空盒,需要立即生效
    effect.SetTextureCube(nullptr);
    effect.Apply(deviceContext);
}

DynamicSkyRender::BeginCapture方法--指定天空盒某一面開始繪製

該方法對應上面所說的第3,4步:

void DynamicSkyRender::BeginCapture(ComPtr<ID3D11DeviceContext> deviceContext, BasicEffect& effect, D3D11_TEXTURECUBE_FACE face,
    const XMFLOAT3& pos, float nearZ, float farZ)
{
    static XMVECTORF32 ups[6] = {
        {{ 0.0f, 1.0f, 0.0f, 0.0f }},   // +X
        {{ 0.0f, 1.0f, 0.0f, 0.0f }},   // -X
        {{ 0.0f, 0.0f, -1.0f, 0.0f }},  // +Y
        {{ 0.0f, 0.0f, 1.0f, 0.0f }},   // -Y
        {{ 0.0f, 1.0f, 0.0f, 0.0f }},   // +Z
        {{ 0.0f, 1.0f, 0.0f, 0.0f }}    // -Z
    };

    static XMVECTORF32 looks[6] = {
        {{ 1.0f, 0.0f, 0.0f, 0.0f }},   // +X
        {{ -1.0f, 0.0f, 0.0f, 0.0f }},  // -X
        {{ 0.0f, 1.0f, 0.0f, 0.0f }},   // +Y
        {{ 0.0f, -1.0f, 0.0f, 0.0f }},  // -Y
        {{ 0.0f, 0.0f, 1.0f, 0.0f }},   // +Z
        {{ 0.0f, 0.0f, -1.0f, 0.0f }},  // -Z
    };
    
    // 設置天空盒攝像機
    mCamera.LookTo(XMLoadFloat3(&pos) , looks[face].v, ups[face].v);
    mCamera.UpdateViewMatrix();
    // 這裏儘可能捕獲近距離物體
    mCamera.SetFrustum(XM_PIDIV2, 1.0f, nearZ, farZ);

    // 應用觀察矩陣、投影矩陣
    effect.SetViewMatrix(mCamera.GetViewXM());
    effect.SetProjMatrix(mCamera.GetProjXM());

    // 清空緩衝區
    deviceContext->ClearRenderTargetView(mDynamicCubeMapRTVs[face].Get(), reinterpret_cast<const float*>(&Colors::Black));
    deviceContext->ClearDepthStencilView(mDynamicCubeMapDSV.Get(), D3D11_CLEAR_DEPTH | D3D11_CLEAR_STENCIL, 1.0f, 0);
    // 設置渲染目標和深度模板視圖
    deviceContext->OMSetRenderTargets(1, mDynamicCubeMapRTVs[face].GetAddressOf(), mDynamicCubeMapDSV.Get());
    // 設置視口
    deviceContext->RSSetViewports(1, &mCamera.GetViewPort());
}

在調用該方法後,就可以開始繪製到天空盒的指定面了,直到下一次DynamicSkyRender::BeginCaptureDynamicSkyRender::Restore被調用。

DynamicSkyRender::Restore方法--恢復之前綁定的資源並清空緩存

該方法對應上面所說的第7,8步:

void DynamicSkyRender::Restore(ComPtr<ID3D11DeviceContext> deviceContext, BasicEffect& effect, const Camera & camera)
{
    // 恢復默認設定
    deviceContext->RSSetViewports(1, &camera.GetViewPort());
    deviceContext->OMSetRenderTargets(1, mCacheRTV.GetAddressOf(), mCacheDSV.Get());

    // 生成動態天空盒後必須要生成mipmap鏈
    deviceContext->GenerateMips(mDynamicCubeMapSRV.Get());

    effect.SetViewMatrix(camera.GetViewXM());
    effect.SetProjMatrix(camera.GetProjXM());
    // 恢復綁定的動態天空盒
    effect.SetTextureCube(mDynamicCubeMapSRV);

    // 清空臨時緩存的渲染目標視圖和深度模板視圖
    mCacheDSV.Reset();
    mCacheRTV.Reset();
}

GameApp::DrawScene方法

在GameApp類多了這樣一個重載的成員函數:

void GameApp::DrawScene(bool drawCenterSphere);

該方法額外添加了一個參數,僅用於控制中心球是否要繪製,而其餘的物體不管怎樣都是要繪製出來的。使用該重載方法有利於減少代碼重複,這裏面的大部分物體都需要繪製7次。

假如只考慮Daylight天空盒的話,無形參的GameApp::DrawScene方法關於3D場景的繪製可以簡化成這樣:


void GameApp::DrawScene()
{
    // ******************
    // 生成動態天空盒
    //
    
    // 保留當前繪製的渲染目標視圖和深度模板視圖
    mDaylight->Cache(md3dImmediateContext, mBasicEffect);
    
    // 繪製動態天空盒的每個面(以球體爲中心)
    for (int i = 0; i < 6; ++i)
    {
        mDaylight->BeginCapture(md3dImmediateContext, mBasicEffect, 
            XMFLOAT3(), static_cast<D3D11_TEXTURECUBE_FACE>(i));

        // 不繪製中心球
        DrawScene(false);
    }
    
    // 恢復之前的繪製設定
    mDaylight->Restore(md3dImmediateContext, mBasicEffect, *mCamera);
    
    // ******************
    // 繪製場景
    //

    // 預先清空
    md3dImmediateContext->ClearRenderTargetView(mRenderTargetView.Get(), reinterpret_cast<const float*>(&Colors::Black));
    md3dImmediateContext->ClearDepthStencilView(mDepthStencilView.Get(), D3D11_CLEAR_DEPTH | D3D11_CLEAR_STENCIL, 1.0f, 0);
    
    // 繪製中心球
    DrawScene(true);
    
    // 省略文字繪製部分...
}

至於有形參的GameApp::DrawScene方法就不在這裏給出,可以在項目源碼看到。

使用幾何着色器的動態天空盒

這部分內容並沒有融入到項目中,因此只是簡單地提及一下。

在上面的內容中,我們對一個場景繪製了6次,從而生成動態天空盒。爲了減少繪製調用,這裏可以使用幾何着色器來使得只需要進行1次繪製調用就可以生成整個動態天空盒。

首先,創建一個渲染目標視圖綁定整個紋理數組:

D3D11_RENDER_TARGET_VIEW_DESC rtvDesc;
rtvDesc.Format = texDesc.Format;
rtvDesc.ViewDimension = D3D11_RTV_DIMENSION_TEXTURE2DARRAY;
rtvDesc.Texture2DArray.FirstArraySlice = 0;
rtvDesc.Texture2DArray.ArraySize = 6;
rtvDesc.Texture2DArray.MipSlice = 0;
HR(device->CreateRenderTargetView(
    texCube.Get(),
    &rtvDesc,
    mDynamicCubeMapRTV.GetAddressOf()));

rtvDesc.

緊接着,就是要創建一個深度緩衝區數組(一個對應立方體面,元素個數爲6):

D3D11_DEPTH_STENCIL_VIEW_DESC dsvDesc;
dsvDesc.Format = DXGI_FORMAT_D32_FLOAT;
dsvDesc.ViewDimension = D3D11_DSV_DIMENSION_TEXTURE2DARRAY;
dsvDesc.Texture2DArray.FirstArraySlice = 0;
dsvDesc.Texture2DArray.ArraySize = 6;
dsvDesc.Texture2DArray.MipSlice = 0;
HR(device->CreateDepthStencilView(
    depthTexArray.Get(),
    &dsvDesc,
    mDynamicCubeMapDSV.GetAddressOf()));

在輸出合併階段這樣綁定到渲染管線:

deviceContext->OMSetRenderTargets(1, 
    mDynamicCubeMapRTV.Get(),
    mDynamicCubeMapDSV.Get());

這樣做會使得一次調用繪製可以同時向該渲染目標視圖對應的六個紋理進行渲染。

在HLSL,現在需要同時在常量緩衝區提供6個觀察矩陣。頂點着色階段將頂點直接傳遞給幾何着色器,然後幾何着色器重複傳遞一個頂點六次,但區別在於每次將會傳遞給不同的渲染目標。這需要依賴系統值SV_RenderTargetArrayIndex來實現,它是一個整型索引值,並且只能由幾何着色器寫入來指定當前需要往渲染目標視圖所綁定的紋理數組中的哪一個紋理。該系統值只能用於綁定了紋理數組的視圖。

struct VertexPosTex
{
    float3 PosL : POSITION;
    float2 Tex : TEXCOORD;
};

struct VertexPosHTexRT
{
    float3 PosH : SV_POSITION;
    float2 Tex : TEXCOORD;
    uint RTIndex : SV_RenderTargetArrayIndex;
};


[maxvertexcount(18)]
void GS(trangle VertexPosTex input[3],
    inout TriangleStream<VertexPosTexRT> output)
{
     
    for (int i = 0; i < 6; ++i)
    {
        VertexPosTexRT vertex;
        // 指定該三角形到第i個渲染目標
        vertex.RTIndex = i;
        
        for (int j = 0; j < 3; ++j)
        {
            vertex.PosH = mul(input[j].PosL, mul(gViews[i], gProj));
            vertex.Tex = input[j].Tex;
            
            output.Append(vertex);
        }
        output.RestartStrip();
    }
}

上面的代碼是經過魔改的,至於與它相關的示例項目CubeMapGS只能在舊版的Microsoft DirectX SDK的Samples中看到了。

這種方法有兩點不那麼吸引人的原因:

  1. 它使用幾何着色器來輸出大量的數據。不過放眼現在的顯卡應該不會損失多大的性能。
  2. 在一個典型的場景中,一個三角形不會出現在兩個或以上的立方體表面,不管怎樣,這5次繪製都沒法通過裁剪,顯得十分浪費。雖然在我們的項目中,一開始的做法也是將整個場景繪製到天空盒的一面,但是我們還可以使用視錐體裁剪技術來剔除掉那些不在視錐體的物體。使用幾何着色器的方法不能進行提前的裁剪。

但還有一種情況它的表現還算不俗。假如你現在有一個動態天空系統,這些雲層會移動,並且顏色隨着時間變化。因爲天空正在實時變化,我們不能使用預先烘焙的天空盒紋理來進行反射/折射。使用幾何着色器繪製天空盒的方法在性能上不會損失太大。

模型的折射

dielectric(絕緣體?)是指能夠折射光線的透明材料,如下圖。當光束射到絕緣體表面時,一部分光會被反射,還有一部分光會基於斯涅爾定律進行折射。公式如下:
\[n_{1}sinθ_{1} = n_{2}sinθ_{2}\]

其中n1和n2分半是兩個介質的折射率,θ1和θ2分別是入射光、折射光與界面法線的夾角,叫做入射角和折射角。

n1 = n2時,θ1 = θ2(無折射)
n2 > n1時,θ2 < θ1(光線向內彎折)
n1 > n2時,θ2 > θ1(光線向外彎折)

在物理上,光線在從絕緣體出來後還會進行一次彎折。但是在實時渲染中,通常只考慮第一次折射的情況。

HLSL提供了固有函數refract來幫助我們計算折射向量:

float3 refract(float3 incident, float3 normal, float eta);

incident指的是入射光向量
normal指的是交界面處的法向量(與入射光點乘的結果爲負值)
eta指的是n1/n2,即介質之間的折射比

通常,空氣的折射率爲1.0,水的折射率爲1.33,玻璃的折射率爲1.51.

之前的項目中Material::Reflect來調整反射顏色,現在你可以拿它來調整折射顏色。

在HLSL裏,你只需要在像素着色器中加上這部分代碼,就可以實現折射效果了(gEta出現在常量緩衝區中):

// 折射
if (gRefractionEnabled)
{
    float3 incident = -toEyeW;
    float3 refractionVector = refract(incident, pIn.NormalW, gEta);
    float4 refractionColor = texCube.Sample(sam, refractionVector);

    litColor += gMaterial.Reflect * refractionColor;
}

項目演示

該項目實現了反射和折射

DirectX11 With Windows SDK完整目錄

Github項目源碼

歡迎加入QQ羣: 727623616 可以一起探討DX11,以及有什麼問題也可以在這裏彙報。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章