码迷,mamicode.com
首页 > 其他好文 > 详细

opengl deferred shading

时间:2015-05-11 14:23:15      阅读:140      评论:0      收藏:0      [点我收藏+]

标签:

原文地址:http://www.verydemo.com/demo_c284_i6147.html

一、Deferred shading技术简介

Deferred shading是这样一种技术:将光照/渲染计算推迟到第二步进行计算。我们这样做的目的是为了避免多次(超过1次)渲染同一个像素。

基本思想如下:

1、在第一步中,我们渲染场景,但是与通常情况下应用反射模型计算片断颜色不同的是,我们只是简单的将几何信息(位置坐标,法线向量,纹理坐标,反射系数等等)存储在中间缓冲区中,这样的缓冲区我们称之为g-buffer(g是几何geometry的缩写)。

2、在第二步,我们从g-buffer中读取信息,应用反射模型,计算出每个像素的最终颜色。

 

Deferred shading技术的应用使得我们避免了应用反射模型于最终不可见的片断上。例如,考虑这样的像素,它位于两个多边形重叠的区域。通常的片断着色器会读对每个多边形分别计算那个像素一次;然而,两次执行的结果最终只有一个成为该像素的最终颜色(这里基于的一个假设是:混合已被禁用)。这样,其中的一次计算就是无用的。有了Deferred shading技术,反射模型的计算会推迟到所有几何体被处理之后,那时候每个像素位置几何体的可见性也是已知的。这样,对于屏幕上的每个像素,反射模型的计算只会发生一次。

 

Deferred shading容易懂而且便于使用。它能够帮助实施很复杂的光照/反射模型。

 

二、结合例子来说明Deferred shading技术

下面的例子采用Deferred shading技术渲染了一个包含一个茶壶和一个圆环的场景。效果如下:

 

图一 场景渲染效果图

在这个例子中,我们将位置坐标、法线以及漫反射因子存储在g-buffer里。在第二步的时候,我们使用g-buffer里面的数据来进行漫反射光照模型的计算。

g-buffer包含3个纹理:分别用来存储位置坐标、法线以及漫反射因子。对应的采用了3个uniform变量:PositionTex、NormalTex、ColorTex。

他们均被关联到一个FBO上。关于FBO使用见:FBO。

 

下面是创建包含g-buffer的FBO的代码:

 

GLuint depthBuf, posTex, normTex, colorTex;  
  
    // Create and bind the FBO  
    glGenFramebuffers(1, &deferredFBO);  
    glBindFramebuffer(GL_FRAMEBUFFER, deferredFBO);  
  
    // The depth buffer  
    glGenRenderbuffers(1, &depthBuf);  
    glBindRenderbuffer(GL_RENDERBUFFER, depthBuf);  
    glRenderbufferStorage(GL_RENDERBUFFER, GL_DEPTH_COMPONENT, width, height);  
  
    // The position buffer  
    glActiveTexture(GL_TEXTURE0);   // Use texture unit 0  
    glGenTextures(1, &posTex);  
    glBindTexture(GL_TEXTURE_2D, posTex);  
    glTexImage2D(GL_TEXTURE_2D, 0, GL_RGB32F, width, height, 0, GL_RGB, GL_UNSIGNED_BYTE, NULL);  
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_NEAREST);  
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_NEAREST);  
  
    // The normal buffer  
    glActiveTexture(GL_TEXTURE1);  
    glGenTextures(1, &normTex);  
    glBindTexture(GL_TEXTURE_2D, normTex);  
    glTexImage2D(GL_TEXTURE_2D, 0, GL_RGB32F, width, height, 0, GL_RGB, GL_UNSIGNED_BYTE, NULL);  
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_NEAREST);  
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_NEAREST);  
  
    // The color buffer  
    glActiveTexture(GL_TEXTURE2);  
    glGenTextures(1, &colorTex);  
    glBindTexture(GL_TEXTURE_2D, colorTex);  
    glTexImage2D(GL_TEXTURE_2D, 0, GL_RGB, width, height, 0, GL_RGB, GL_UNSIGNED_BYTE, NULL);  
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_NEAREST);  
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_NEAREST);  
  
    // Attach the images to the framebuffer  
    glFramebufferRenderbuffer(GL_FRAMEBUFFER, GL_DEPTH_ATTACHMENT, GL_RENDERBUFFER, depthBuf);  
    glFramebufferTexture2D(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0, GL_TEXTURE_2D, posTex, 0);  
    glFramebufferTexture2D(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT1, GL_TEXTURE_2D, normTex, 0);  
    glFramebufferTexture2D(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT2, GL_TEXTURE_2D, colorTex, 0);  
  
    GLenum drawBuffers[] = {GL_NONE, GL_COLOR_ATTACHMENT0, GL_COLOR_ATTACHMENT1,  
                        GL_COLOR_ATTACHMENT2};  
    glDrawBuffers(4, drawBuffers);  
  
    glBindFramebuffer(GL_FRAMEBUFFER, 0);  

 

GLuint depthBuf, posTex, normTex, colorTex;  
  
    // Create and bind the FBO  
    glGenFramebuffers(1, &deferredFBO);  
    glBindFramebuffer(GL_FRAMEBUFFER, deferredFBO);  
  
    // The depth buffer  
    glGenRenderbuffers(1, &depthBuf);  
    glBindRenderbuffer(GL_RENDERBUFFER, depthBuf);  
    glRenderbufferStorage(GL_RENDERBUFFER, GL_DEPTH_COMPONENT, width, height);  
  
    // The position buffer  
    glActiveTexture(GL_TEXTURE0);   // Use texture unit 0  
    glGenTextures(1, &posTex);  
    glBindTexture(GL_TEXTURE_2D, posTex);  
    glTexImage2D(GL_TEXTURE_2D, 0, GL_RGB32F, width, height, 0, GL_RGB, GL_UNSIGNED_BYTE, NULL);  
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_NEAREST);  
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_NEAREST);  
  
    // The normal buffer  
    glActiveTexture(GL_TEXTURE1);  
    glGenTextures(1, &normTex);  
    glBindTexture(GL_TEXTURE_2D, normTex);  
    glTexImage2D(GL_TEXTURE_2D, 0, GL_RGB32F, width, height, 0, GL_RGB, GL_UNSIGNED_BYTE, NULL);  
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_NEAREST);  
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_NEAREST);  
  
    // The color buffer  
    glActiveTexture(GL_TEXTURE2);  
    glGenTextures(1, &colorTex);  
    glBindTexture(GL_TEXTURE_2D, colorTex);  
    glTexImage2D(GL_TEXTURE_2D, 0, GL_RGB, width, height, 0, GL_RGB, GL_UNSIGNED_BYTE, NULL);  
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_NEAREST);  
    glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_NEAREST);  
  
    // Attach the images to the framebuffer  
    glFramebufferRenderbuffer(GL_FRAMEBUFFER, GL_DEPTH_ATTACHMENT, GL_RENDERBUFFER, depthBuf);  
    glFramebufferTexture2D(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT0, GL_TEXTURE_2D, posTex, 0);  
    glFramebufferTexture2D(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT1, GL_TEXTURE_2D, normTex, 0);  
    glFramebufferTexture2D(GL_FRAMEBUFFER, GL_COLOR_ATTACHMENT2, GL_TEXTURE_2D, colorTex, 0);  
  
    GLenum drawBuffers[] = {GL_NONE, GL_COLOR_ATTACHMENT0, GL_COLOR_ATTACHMENT1,  
                        GL_COLOR_ATTACHMENT2};  
    glDrawBuffers(4, drawBuffers);  
  
    glBindFramebuffer(GL_FRAMEBUFFER, 0);  

注意:三个纹理分别使用函数glFramebufferTexture2D()关联到FBO的颜色关联点0、1、2上面。接着调用函数glDrawBuffers把它们和片断着色器的输出变量联系起来。

 

函数glDrawBuffer指示了FBO成员和片断着色器输出变量之间的联系。FBO中的第i个成员对应片断着色器中的索引为i的输出变量。这样,片断着色器(下面列出了完整代码)中相对应的输出变量分别是PosiutionData,NormalData和ColorData。

 

顶点着色器实现了一个很简单的功能:将位置坐标和法线转化到eye sapce中,然后传递到片断着色器中。而纹理坐标则没有发生变化。

 

片断着色器如下:

#version 400  
  
struct LightInfo {  
  vec4 Position;  // Light position in eye coords.  
  vec3 Intensity; // A,D,S intensity  
};  
uniform LightInfo Light;  
  
struct MaterialInfo {  
  vec3 Kd;            // Diffuse reflectivity  
};  
uniform MaterialInfo Material;  
  
subroutine void RenderPassType();  
subroutine uniform RenderPassType RenderPass;  
  
uniform sampler2D PositionTex, NormalTex, ColorTex;  
  
in vec3 Position;  
in vec3 Normal;  
in vec2 TexCoord;  
  
layout (location = 0) out vec4 FragColor;  
layout (location = 1) out vec3 PositionData;  
layout (location = 2) out vec3 NormalData;  
layout (location = 3) out vec3 ColorData;  
  
vec3 diffuseModel( vec3 pos, vec3 norm, vec3 diff )  
{  
    vec3 s = normalize(vec3(Light.Position) - pos);  
    float sDotN = max( dot(s,norm), 0.0 );  
    vec3 diffuse = Light.Intensity * diff * sDotN;  
  
    return diffuse;  
}  
  
subroutine (RenderPassType)  
void pass1()  
{  
    // Store position, normal, and diffuse color in textures  
    PositionData = Position;  
    NormalData = Normal;  
    ColorData = Material.Kd;  
}  
  
subroutine(RenderPassType)  
void pass2()  
{  
    // Retrieve position and normal information from textures  
    vec3 pos = vec3( texture( PositionTex, TexCoord ) );  
    vec3 norm = vec3( texture( NormalTex, TexCoord ) );  
    vec3 diffColor = vec3( texture(ColorTex, TexCoord) );  
  
    FragColor = vec4( diffuseModel(pos,norm,diffColor), 1.0 );  
}  
  
void main() {  
    // This will call either pass1 or pass2  
    RenderPass();  
}  
#version 400  
  
struct LightInfo {  
  vec4 Position;  // Light position in eye coords.  
  vec3 Intensity; // A,D,S intensity  
};  
uniform LightInfo Light;  
  
struct MaterialInfo {  
  vec3 Kd;            // Diffuse reflectivity  
};  
uniform MaterialInfo Material;  
  
subroutine void RenderPassType();  
subroutine uniform RenderPassType RenderPass;  
  
uniform sampler2D PositionTex, NormalTex, ColorTex;  
  
in vec3 Position;  
in vec3 Normal;  
in vec2 TexCoord;  
  
layout (location = 0) out vec4 FragColor;  
layout (location = 1) out vec3 PositionData;  
layout (location = 2) out vec3 NormalData;  
layout (location = 3) out vec3 ColorData;  
  
vec3 diffuseModel( vec3 pos, vec3 norm, vec3 diff )  
{  
    vec3 s = normalize(vec3(Light.Position) - pos);  
    float sDotN = max( dot(s,norm), 0.0 );  
    vec3 diffuse = Light.Intensity * diff * sDotN;  
  
    return diffuse;  
}  
  
subroutine (RenderPassType)  
void pass1()  
{  
    // Store position, normal, and diffuse color in textures  
    PositionData = Position;  
    NormalData = Normal;  
    ColorData = Material.Kd;  
}  
  
subroutine(RenderPassType)  
void pass2()  
{  
    // Retrieve position and normal information from textures  
    vec3 pos = vec3( texture( PositionTex, TexCoord ) );  
    vec3 norm = vec3( texture( NormalTex, TexCoord ) );  
    vec3 diffColor = vec3( texture(ColorTex, TexCoord) );  
  
    FragColor = vec4( diffuseModel(pos,norm,diffColor), 1.0 );  
}  
  
void main() {  
    // This will call either pass1 or pass2  
    RenderPass();  
}  

 

片断着色器则包含了关于光源、材料的一些信息,都是uniform变量,以用于光照计算。

片断着色器里面使用了subroutine技术,实现了两个函数pass1和pass2,分别包含了第一步和第二步的操作。我们在OpenGL应用程序中通过设置uniform变量的值可以选择使用相应的功能。

 

在OpenGL应用程序里面,

实施第一步的步骤如下:

1、绑定FBO;

2、情况颜色以及深度缓冲区,选择pass1 subroutine函数,启用深度测试;

3、渲染场景。

 

实施第二步的步骤是:

1、去除FBO绑定(将其绑定到0),目的是能够渲染场景到默认缓冲区,而不是FBO里面,它就能显示到屏幕上;

2、清除颜色缓冲去对象。禁用深度测试;

3、选择pass2 subroutine函数,渲染一个充满屏幕的四边形,带有纹理坐标,每个方向的纹理坐标的范围都是从0到1.计算光照模型,得出最后的片断颜色。

 

三、如何选择使用Deferred shading技术

图形学领域,关于Deferred shading技术的优点和缺陷备受争议。这种技术并不适用所有的场合,它取决于你的应用程序的需求。因此在觉得是否采用这个技术之前一定要权衡它带来的优点和缺陷。

Deferred shading技术带来一个很重要的缺点就是不能使用基于硬件实现的多重采样抗锯齿功能。因为渲染过程发生在第二步,所以我们在第二步需要多个样本。但是,在第二步我们只有每一个像素的一个样本。

另外一个缺点就是不能使用混合技术

 

参考资料:

《GPU Gems 2》的第9章

《GPU Gems 3》的第19章

http://blog.csdn.net/zhuyingqingfen/article/details/19406163 

 

opengl deferred shading

标签:

原文地址:http://www.cnblogs.com/dragon2012/p/4494313.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!