草庐IT

GPUImage

全部标签

ios - 使用 UnsafeMutablePointer 数组

我正在尝试使用BradLarson出色的GPUImage框架,但我正在努力处理GPUImageHarrisCornerDetectionFilter返回的cornerArray。角点作为UnsafeMutablePointer中的GLFloat数组返回-我想将其转换为CGPoint数组/p>我试过为内存分配空间varcornerPointer=UnsafeMutablePointer.alloc(Int(cornersDetected)*2)但数据似乎没有任何意义——要么是0,要么是1E-32我找到了看起来很完美的答案howtoloopthroughelementsofarrayofi

ios - 如何使用 Swift 语法在 GPUImage2 中将两个图像混合在一起

我熟悉以下语法,可以在GPUImage2中使用Swift语法中的类似内容进行单个图像过滤:input-->blur-->output但是我该如何使用需要两张图像的图像处理操作呢?GPUImage2中的示例之一表明您可以执行此操作:input-->self.lookup1-->self.alphaBlend-->self.lookup2-->outputself.lookup1-->self.gaussianBlur-->self.alphaBlend其中self.lookup1和self.lookup2是2张不同的图像。但我不确定这种语法,在这种情况下,第二张图像是否应该在alphaB

ios - 在 Swift 上使用 GPUImage 过滤器捕获图像

我正在为图像过滤器使用GPUImage框架。我在相机上应用了ToonFilter()来实现卡通滤镜效果。我的问题是在使用GPUImage使用ToonFilter效果在相机上捕捉图像时。下面是使用GPUImage相机显示ToonFilter并捕获具有相同效果的新图像的代码。请指导我如何使用相同的滤镜拍摄图像?注意:我可以成功打开带有卡通滤镜效果的相机-问题仅在于捕获带有滤镜效果的新图像。代码:importUIKitimportGPUImageimportAVFoundationclassSelfieFilterVC:UIViewController,UISplitViewControll

ios - 声明 `typedef SomeClass<SomeProtocol> MyType` 的 Swift 等价物是什么?

我目前正在一个以Objective-C为主的项目中编写一些Swift代码。在我们的ObjC代码中,我们有一个header声明typedefGPUImageOutputMyFilter;.然后我们可以声明例如一个只能是GPUImageOutput的@property实现GPUImageInput的子类.(注意:GPUImageOutput和GPUImageInput不是我定义的;它们是GPUImagelibrary的一部分)我们的Swift代码似乎无法识别这一点,即使header在我们的桥接header中是#imported。我试图在Swift中复制声明,但这些都不是正确的语法:type

ios - GPUImage 和 GPUImageView : App terminated due to memory error

我正在使用GPUImage和许多GPUImageView实例。目的是显示原始图像,在顶部层叠几个过滤图像切片,最后在原始图像上缓慢地对切片过滤器进行动画处理。想象一幅图像,其中一些棕褐色条滚动显示正常图像和棕褐色图像。我将此功能包装在UIView的子类中,如下所示:importFoundationimportQuartzCoreclassFilteredImageMaskView:UIView{init(frame:CGRect,image:UIImage){super.init(frame:frame);letimageViewFrame=CGRectMake(frame.origi

ios - __copy_helper_block_ 在 AVFoundation 中崩溃

我的视频处理应用程序发生奇怪的崩溃。它使用AVFoundation处理视频和音频,使用GPUImage进行过滤。我自己从未遇到过这个问题,但在将其发布到AppStore后,它经常出现在Crashlytics中。这是崩溃的日志:Thread:Crashed:AVPlayerItemOutputqueue0libobjc.A.dylib0x00000001986f80b4objc_retain+201libsystem_blocks.dylib0x0000000198d79bf8_Block_object_assign+3202AVFoundation0x0000000186895a34_

ios - 将 GPUImage 过滤器子类移植到 Swift

我正在尝试将应用程序从Objective-C移植到Swift,但我在使用GPUImageFilter的子类时遇到了问题。在Obj-C中,继承GPUImageFilter并使用不同的片段着色器非常简单-(id)init;{NSString*fragmentShaderPathname=[[NSBundlemainBundle]pathForResource:@"TestShader"ofType:@"fsh"];NSString*fragmentShaderString=[NSStringstringWithContentsOfFile:fragmentShaderPathnameenc

objective-c - 找不到GPUImage框架的GPUImage.h头文件怎么办?

我创建了一个示例应用程序来执行凹凸失真,使用GPUImageframework.我将此框架添加到我的应用程序中,但我看到以下错误Lexicalorpreprocessorissue'GPUImage.h'filenotfound.我已将-ObjC标志添加到其他链接器标志,但我仍然看到此错误。我该如何解决这个问题并让我的应用程序编译? 最佳答案 将GPUImage框架添加到XCode项目可能很棘手。所以我添加了详细的分步说明和图片,说明如何操作。静态编译法(详细解,免得乱七八糟)这是静态编译方式。在此基本上我们将使用./build.s

objective-c - 找不到GPUImage框架的GPUImage.h头文件怎么办?

我创建了一个示例应用程序来执行凹凸失真,使用GPUImageframework.我将此框架添加到我的应用程序中,但我看到以下错误Lexicalorpreprocessorissue'GPUImage.h'filenotfound.我已将-ObjC标志添加到其他链接器标志,但我仍然看到此错误。我该如何解决这个问题并让我的应用程序编译? 最佳答案 将GPUImage框架添加到XCode项目可能很棘手。所以我添加了详细的分步说明和图片,说明如何操作。静态编译法(详细解,免得乱七八糟)这是静态编译方式。在此基本上我们将使用./build.s

ios - 对视频文件应用滤镜

我想在视频播放时对视频文件应用滤镜(效果)。我目前正在使用@BradLarson的(很棒的)GPUImage框架来执行此操作,这里的问题是该框架不支持在播放视频时播放音频。所以我有两个选择:1)深入研究GPUImage代码并更改GPUImageMovie,以便它也能处理音频缓冲区。这需要同步音频和视频帧的知识,不幸的是我没有。我看到一些hack试图用AVAudioPlayer播放音频但是有很多同步问题。2)使用CoreImage框架代替GPUImage。所以我想看看使用nativeiOSCoreImage和CIFilter来完成这项工作的第二个选项。问题是,我找不到任何关于如何使用CI