草庐IT

gpuimage

全部标签

ios - GPUImage : YUV or RGBA impact on performance?

我正在处理一些静态图像处理,GPUImage是一个非常棒的框架(谢谢BradLarson!)。我的理解是:一些过滤器只需要一个组件就可以完成。在这种情况下,图像应该是YUV(YCbCr),我们只使用Y(亮度=图像灰度)。其他过滤器需要来自3个分量(R、G和B)的所有颜色信息。提供YUV->RGB转换(在GPUVideoCamera中),RGB->YUV可以硬编码到片段着色器中(例如:GPUImageChromaKeyFilter)我有很多图像处理步骤,有些可以基于YUV,有些可以基于RGB。基本上,我想混合RGB和YUV滤镜,所以我的一般问题是:这种连续转换的成本/信息损失是多少,您会

ios - 在 GPUImageView 上找不到方法 "setImage:"

我将在GPUImageView上设置图像。UIImage*adjustedImage=[lookupFilterimageFromCurrentFramebufferWithOrientation:0];[self->_imgViewsetImage:adjustedImage];但是在GPUImageView类中是没有setImage:方法的。有人可以发布setImage:的整个方法或者告诉我如何找到这个方法吗?我想我可以从UIImageView.m文件中复制方法并将其粘贴到GPUImageView.m文件中。但是我找不到UIImageView.m文件。GPUImageView.h#

ios - 我正在使用 GPUImage 框架在 iOS 中编辑静态电影,在以下方法中获取空值,这是我的代码片段

我想从以下方法返回CMsampleBuffer-(CMSampleBufferRef)readMovieFrames{AVURLAsset*mAsset=[[AVURLAssetalloc]initWithURL:sampleURLoptions:NULL];tracks=[mAssettracksWithMediaType:AVMediaTypeVideo];//heregettingoneindexAVAssetTrack*mTrack=[tracksobjectAtIndex:0];NSString*key=(NSString*)kCVPixelBufferPixelFormat

ios - GPUImage锁定 View

在我的应用程序中,我有一个对象CameraHandler,它使用GPUImage来检测相机的某些运动。它在我的GameViewController中初始化。它(CameraHandler)能够成功检测到运动,并触发相关方法,但是它会在很长一段时间内锁定GameViewController的View(~5到10秒),然后屏幕上才会显示任何更改。一旦CameraHandler检测到变化,它就会触发一个方法来更改ViewController上顶View的背景并显示一个UIAlertView(用于测试目的)。就像我说的,这只会在调用它的那一刻起5-10秒后发生。我知道程序本身没有被卡住,因为我

ios - 将强度参数添加到 GPUImageFalseColorFilter

查看底部的更新看起来GPUImageFalseColorFilter是从另一个滤镜复制的-我可以在着色器中看到强度属性,尽管它实际上没有做任何事情。我已经为它添加了setter和Obj-c包装器,但现在我似乎无法获得gl_fragColor返回值以将强度作为参数。这是使用100%强度的着色器:precisionlowpfloat;varyinghighpvec2textureCoordinate;uniformsampler2DinputImageTexture;uniformlowpfloatintensity;uniformvec4shadowTintColor;uniformve

ios - GPUImage 创建一个自定义过滤器来更改选定的颜色

使用惊人的GPU图像框架,我正在尝试使用自定义片段着色器创建自定义过滤器,该着色器将一些颜色向量作为制服传递,精心制作每个片段,用制服中的颜色替换所选颜色。我使用Quartz制作了它并且它可以工作,但是由于我正在使用这个框架迈出我在OpenGL世界中的第一步,我想尝试一下GPU处理。我制作的片段着色器似乎工作正常,但输出有问题。我只发布了一个用于调试porpoise的示例varyinghighpvec2textureCoordinate;uniformsampler2DinputImageTexture;boolcompareVectors(lowpvec3x,lowpvec3y){b

iphone - 使用 'tap-to-focus' 和曝光控制的 GPUImage 视频捕获

我正在使用本教程:https://github.com/BradLarson/GPUImage在iOS中创建视频捕获应用程序。应用程序已启动并正在运行。我有一个问题...我们使用此代码启动实时视频捕获session:GPUImageVideoCamera*videoCamera=[[GPUImageVideoCameraalloc]initWithSessionPreset:AVCaptureSessionPreset640x480cameraPosition:AVCaptureDevicePositionBack];videoCamera.outputImageOrientation

ios - GPUImage 花时间应用过滤器

我正在研究GPUImage图书馆。我已设置特定过滤器将应用于Collectionview的didselectitematindexpath方法。这是我基于GPUImage库的第一个项目。我能够成功地在GPUImageview上应用过滤器,但是应用过滤器需要很多时间。请指导我,我怎样才能快速申请。这是我的代码,-(void)collectionView:(UICollectionView*)collectionViewdidSelectItemAtIndexPath:(NSIndexPath*)indexPath{[filterremoveAllTargets];if(indexPath

android - 在 Android 上录制视频时添加覆盖

我想在我的Android设备上通过摄像头录制视频。我需要在录制的电影上添加叠加图像。在iOS中我会使用GPUImage.在Android中我找到了AndroidGPUImage.我尝试使用它,但我没有找到在视频录制时添加任何过滤器的方法。在提供的示例中,我只能为拍照添加滤镜。有什么方法可以用AndroidGPUImage的滤镜录制视频吗??有没有其他方法可以实时添加图像叠加在录制视频上?如果没有,是否有任何方法可以在后期处理中添加覆盖录制视频的图像? 最佳答案 您可以使用混合滤镜在视频上添加叠加图像。关于视频录制:android-g

android - MultiInputFilter 不适用于 AndroidFastImageProcessing 中的 3 个输入

我正在使用thislibraryforGPUImageprocessing.我正在尝试像在iOSGPUImage中那样并行运行过滤器库,但我在向一个扩展MultiInputFilter的过滤器添加3个输入时遇到问题。我正在尝试结合BasicCameraInputFilterCannyEdgeDetectionFilterSobelEdgeDetectionFilter其中BasicCameraInputFilter是直接相机输入。BasicCameraInputFiltercameraInput=newBasicCameraInputFilter();CannyEdgeDetectio