草庐IT

GL_TEXTURE_BUFFER

全部标签

objective-c - 如何使用 Objective C/iOS 5 SDK 安装 Protocol Buffer ?

有谁知道如何让ProtocolBuffer与最新版本的iOSSDK一起工作?我尝试了此处给出的说明:http://code.google.com/p/metasyntactic/wiki/ProtocolBuffers我已成功安装“protoc”并使用它成功编译了Objective-C输出文件,但它告诉您列为依赖项的项目已过时,我在尝试构建我的应用程序时遇到错误。或者,有没有人知道如何使项目与最新版本的SDK兼容? 最佳答案 你可以找到相关的IOS5arcenabledportifmetasyntacticprotobufhttps

ios - gl_LastFragData 用于模糊整个场景

所以我有一个使用OpenGLES2.0的cocos2diOS应用程序。我有片段着色器,目前我正在抓取vec4lastFragColor=gl_LastFragData[0];并对其进行操作。但我真正想知道的是,我是否/如何可以访问当前片段的相邻片段,以便我可以实现像高斯模糊这样的卷积类型效果? 最佳答案 答案是否定的。你不能使用这个gl扩展来抓取相邻的片段。渲染到fbo并将其用作输入来渲染高斯模糊。 关于ios-gl_LastFragData用于模糊整个场景,我们在StackOverfl

ios - 在 iOS 中获取或模拟 GL_PACK_ROW_LENGTH 和 GL_UNPACK_ROW_LENGTH

似乎在iOS上不支持将glPixelStorei与GL_UNPACK_ROW_LENGTH和GL_PACK_ROW_LENGTH一起使用。当分别使用glTexImage2D和glReadPixels时,是否有可能以某种方式模拟它们以获得相同的内存跨度效果(无需额外的事先副本对齐内存)? 最佳答案 这不是一个很好的解决方案,但您可以逐行读取/写入数据。对于glTexImage2D()情况,您将使用完整大小调用一次glTexImage2D(),最后一个参数为NULL。然后对每一行使用单独的glTexSubImage2D()调用。glRe

ios - 如何运行 “mapbox-gl-native” 项目?

我正在通过cocoapods使用“Mapbox-iOS-SDK”3.0,并希望为注释实现脉冲效果:https://github.com/TransitApp/SVPulsingAnnotationView建议通过此链接更新MGLMapView.mm文件:https://stackoverflow.com/questions/33598363/implement-pulse-effect-on-annotations-in-mapbox/33768054#33768054但现在我不明白如何运行“mapbox-gl-native”项目? 最佳答案

使用 GL_TEXTURE_2D 的 iOS YUV 420v 在 OpenGL 着色器中显示错误的颜色

目标:使用GL_TEXTURE_2D而不是CVOpenGLESTextureRef将YUV数据(格式为“420v”kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange)推送到着色器(为什么?因为我需要使用glTexSubImage2d来操作像素,而且我不能在目标为CVOpenGLESTextureGetTarget()时使用它,所以它没有效果。我必须使用GL_TEXTURE_2D)问题:我正在使用自定义视频合成器来操作AVPlayer视频。当我像Apple的AVCustomEdit示例代码一样使用CVOpenGLESTextureRef时,它使

iOS (objective-c) compression_decode_buffer() 返回零

我正在将我服务器上的一个非常大的json结果转换为我可以在我的objectivec应用程序上解压缩的压缩格式。我更愿意使用iOS9compressionlib如果可能(libcompression.tbd),在Apple'sCompressionSample/BlockCompression.csamplecode中描述.我将压缩的NSData结果传递给以下方法:#include"compression.h"...-(NSData*)getDecompressedData:(NSData*)compressed{size_tdst_buffer_size=20000000;//20MB

ios - WebGL:OES_texture_float 是否需要存储为 32 位 float ?有些设备似乎只存储为半 float

如果设备支持OES_texture_float,则FLOAT纹理应存储为32位浮点值,accordingtothespec.但是,在某些设备上,纹理似乎存储为半float。以下代码创建一个包含值Pi的1x1浮点纹理。片段着色器对纹理进行采样并将结果与​​Pi的32位float和16位float(即半float)表示进行比较。着色器为32位返回绿色,为16位返回红色。"usestrict";constcanvas=document.getElementsByTagName("canvas")[0];constgl=canvas.getContext("webgl");if(!gl.get

objective-c - 为什么我在 OpenGL ES for iOS 中使用 GL_UNSIGNED_SHORT 时得到 EXC_BAD_ACCESS?

我需要做的是绘制一个包含超过256个元素的顶点数组。当我的数量少于那么多时,并且在调用glDrawElements时使用GL_UNSIGNED_BYTE,一切正常。当我有超过256个元素时,它会再次从第一个顶点开始绘制(即,最后一个元素[256-255,无论什么]与第一个[1或0]连接,并且不会绘制更多元素)。如果我改用GL_UNSIGNED_SHORT,我会得到EXC_BAD_ACCESS。给了什么?intindexLim=self.animIndex;GLushortglIndLim=(GLushort)indexLim;VertexlocalVertices[glIndLim];

iphone - 打开 GL-ES 2.0 : Touch detection

大家好,我正在iOS上做一些工作,这项工作需要使用OpenGLes。所以现在我在屏幕上有一堆正方形、立方体和三角形。其中一些几何图形可能会重叠。触摸检测的任何想法/方法?问候 最佳答案 为了跟进已经给出的答案,正方形、立方体和三角形是凸形,因此您可以很容易地执行光线-对象相交,甚至可以直接从几何而不是从完美对象的数学描述中进行。您将需要能够计算点到平面的距离以及射线与平面的交点。作为一个简单的测试,您可以非常快速地自己实现,对于凸形上的每个多边形计算出射线和平面之间的交点。然后检查该点是否在由与您刚刚测试的共享一​​条边的多边形定义

objective-c : Most efficient way to load a texture to OpenGL

目前,我使用ImageI/O在iOS中加载纹理,并使用CoreGraphics提取其图像数据。然后我可以像这样将图像数据发送到OpenGL:glTexImage2D(GL_TEXTURE_2D,0,GL_RGBA,texture->width,texture->height,0,GL_RGBA,GL_UNSIGNED_BYTE,texture->imageData);问题是CoreGraphics部分真的很慢,我需要使用CoreGraphics进行设置和绘制,只是为了提取图像数据……我不想在屏幕上显示它。一定有更高效的方法来提取iOS中的图像数据吗?...这是我的代码:...myTex