音视频之opengl绘制三角形 <https://blog.csdn.net/u010339039/article/details/88563167>

音视频之opengl渲染图片 <https://blog.csdn.net/u010339039/article/details/88595059>

音视频之渲染yuv图片 <https://blog.csdn.net/u010339039/article/details/88628687>

前一篇我们讨论了如何渲染一个普通图片(rgb)
现在我们来讨论如何渲染一个yuv图片。

什么是yuv我们这里有一个说的不错的文章

yuv解释链接 <https://blog.csdn.net/AndrExpert/article/details/81836977>


我们摄像头采集到的,最后我们用来显示的都是yuv数据。所以我们必须的理解yuv格式,yuv有很多种格式,什么yuv420p,yuv422等。需要学习的就在上面的连接进行学习。

我们先看看下面效果图:



我们直接来看看对应的着色器代码:

顶点着色器:
attribute vec4 aPosition; attribute vec2 aTexCoord; varying vec2 vTexCoord;
void main() { //这个1.0 - aTexCoord.y 是让yuv图像倒一个方向。 vTexCoord = vec2(aTexCoord.x,
1.0 - aTexCoord.y); gl_Position = aPosition; }
aPosition:让顶点坐标传递进来的变量
aTexCoord:让纹理坐标传递进来的变量
vTexCoord:将纹理坐标从顶点着色器中传递到片段着色器中,当然我们看到他使用了1.0 - aTexCoord.y ,是为了将图片倒一个方向

片段着色器:
precision mediump float; varying vec2 vTexCoord; uniform sampler2D yTexture;
uniform sampler2D uTexture; uniform sampler2D vTexture; void main() { vec3 yuv;
vec3 rgb; yuv.r = texture2D(yTexture, vTexCoord).r; yuv.g = texture2D(uTexture,
vTexCoord).r - 0.5; yuv.b = texture2D(vTexture, vTexCoord).r - 0.5; rgb =
mat3(1.0, 1.0, 1.0, 0.0, -0.39465, 2.03211, 1.13983, -0.58060, 0.0) * yuv;
gl_FragColor = vec4(rgb, 1.0); }
传入三个纹理,分别对应y,u,v然后yuv需要转换成rgb,yuv转rgb就是以上的方式。
对应的公式是:
R = Y + 1.13983V
G = Y - 0.394U - 0.58060V
B = Y + 2.03211U
但是在opengl使用的是线性代数的方式来处理。

好了我们直接看代码部分:
这次我们把顶点坐标和纹理坐标分开声明的
float vertexVertices[] = { //顶点坐标 1.0f, 1.0f, -1.0f, 1.0f, 1.0f, -1.0f, -1.0f,
-1.0f, }; float textureVertices[] = { //纹理坐标 0.0f, 1.0f, 1.0f, 1.0f, 0.0f,
0.0f, 1.0f, 0.0f, };
注意:我把文件读取路径写的是sdcard/FFmpeg,以后我的很多操作都是写入的这个地方。
try { byte[] buffer = new byte[yuvSize]; fis = new
FileInputStream("sdcard/FFmpeg/oneframe.yuv"); fis.read(buffer); byteY = new
byte[yLen]; byteU = new byte[yLen / 4]; byteV = new byte[yLen / 4];
System.arraycopy(buffer, 0, byteY, 0, yLen); System.arraycopy(buffer, yLen,
byteU, 0, yLen / 4); System.arraycopy(buffer, yLen * 5 / 4, byteV, 0, yLen /
4); bufferY = ByteBuffer.wrap(byteY); bufferU = ByteBuffer.wrap(byteU); bufferV
= ByteBuffer.wrap(byteV); } catch (Exception e) { Log.e("xhc", " message " +
e.getMessage()); e.printStackTrace(); }
声明了三个本地缓存
private ByteBuffer bufferY; private ByteBuffer bufferU; private ByteBuffer
bufferV;
分别保存的是y,u,v对应的数据

编译,连接,使能的代码部分就不一一拿出来说了,和之前的渲染三角形等一样,直接贴出:
@Override public void onSurfaceCreated(GL10 gl10, EGLConfig eglConfig) {
glClearColor(0.0f, 0.0f, 0.0f, 0.0f); String vertexShaderSource =
TextResourceReader.readTextFileFromResource(context, R.raw.yuv_vertex_shader);
String frgShaderSource = TextResourceReader.readTextFileFromResource(context,
R.raw.yuv_frg_shader); int vertextShader =
ShaderHelper.compileVertextShader(vertexShaderSource); int fragmentShader =
ShaderHelper.compileFragmentShader(frgShaderSource); program =
ShaderHelper.linkProgram(vertextShader, fragmentShader);
ShaderHelper.validatePrograme(program); glUseProgram(program); textureYL =
glGetUniformLocation(program, "yTexture"); textureUL =
glGetUniformLocation(program, "uTexture"); textureVL =
glGetUniformLocation(program, "vTexture"); aPositionL =
glGetAttribLocation(program, "aPosition"); aTextureCoordinatesL =
glGetAttribLocation(program, "aTexCoord"); vertexData.position(0); int[]
textures = TextureHelper.initYuvTexture(); if (textures == null) { return; }
textureYid = textures[0]; textureUid = textures[1]; textureVid = textures[2];
glVertexAttribPointer(aPositionL, 2, GL_FLOAT,false , 0, vertexData);
glEnableVertexAttribArray(aPositionL);
glVertexAttribPointer(aTextureCoordinatesL, 2, GL_FLOAT, false, 0, texData);
glEnableVertexAttribArray(aTextureCoordinatesL); }
我们在这里拿到y,u,v纹理数据,顶点,和纹理坐标的location。稍后再绘制的时候会使用。

我们这里直接绘制纹理:
@Override public void onDrawFrame(GL10 gl10) { glClear(GL_COLOR_BUFFER_BIT);
glUseProgram(program); //激活纹理单元GL_TEXTURE0 glActiveTexture(GL_TEXTURE0);
//绑定对应的纹理对象textureYid glBindTexture(GL_TEXTURE_2D, textureYid); //详细看后面
glTexImage2D(GL_TEXTURE_2D, 0, GL_LUMINANCE, width, height, 0, GL_LUMINANCE,
GL_UNSIGNED_BYTE, bufferY); //调用glUniformli(textureYL,0)把被选定的纹理单元传递给片段着色器中。
glUniform1i(textureYL, 0); glActiveTexture(GL_TEXTURE1);
glBindTexture(GL_TEXTURE_2D, textureUid); glTexImage2D(GL_TEXTURE_2D, 0,
GL_LUMINANCE, width/2, height/2, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, bufferU);
glUniform1i(textureUL, 1); glActiveTexture(GL_TEXTURE2);
glBindTexture(GL_TEXTURE_2D, textureVid); glTexImage2D(GL_TEXTURE_2D, 0,
GL_LUMINANCE, width/2, height/2, 0, GL_LUMINANCE, GL_UNSIGNED_BYTE, bufferV);
glUniform1i(textureVL, 2); glDrawArrays(GL_TRIANGLE_STRIP, 0, 4); }
glTexImage2D中对应的参数:

target

指定活动纹理单元的目标纹理。必须是GL_TEXTURE_2D,GL_TEXTURE_CUBE_MAP_POSITIVE_X,GL_TEXTURE_CUBE_MAP_NEGATIVE_X,GL_TEXTURE_CUBE_MAP_POSITIVE_Y,GL_TEXTURE_CUBE_MAP_NEGATIVE_Y,GL_TEXTURE_CUBE_MAP_POSITIVE_Z,或GL_TEXTURE_CUBE_MAP_NEGATIVE_Z。

level
指定详细程度编号。级别0是基本图像级别。级别n是第n个缩略图缩小图像。

internalformat

指定纹理的内部格式。必须是下列符号常量之一:GL_ALPHA(按照alpha值存储纹理单元),GL_LUMINANCE(按照亮度值存储纹理单元),GL_LUMINANCE_ALPHA(按照亮度值和alpha值存储纹理单元),GL_RGB(按照r,g,b成分存储纹理单元),GL_RGBA(按照r,g,b,alpha方式存储纹理单元)。

Width
:尽量使用2的整数次方,不然会有可能有性能损耗,注意:y纹理的宽度,就是图片的宽度,但是u,v的宽度却除了2,那是因为yuv420p格式的数据是4个y共用一个uv,所以宽高都需要除2

Height:同上

border
指定边框的宽度。必须为0。

format

指定纹理数据的格式。必须匹配internalformat。下面的符号值被接受:GL_ALPHA,GL_RGB,GL_RGBA,GL_LUMINANCE,和GL_LUMINANCE_ALPHA。

type

指定纹理数据的数据类型。下面的符号值被接受:GL_UNSIGNED_BYTE,GL_UNSIGNED_SHORT_5_6_5,GL_UNSIGNED_SHORT_4_4_4_4,和GL_UNSIGNED_SHORT_5_5_5_1。

data
指定一个指向内存中图像数据的指针。

github地址 <https://github.com/xhc2/MyAndroidOpenGlES>

友情链接
ioDraw流程图
API参考文档
OK工具箱
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:ixiaoyang8@qq.com
QQ群:637538335
关注微信