草庐IT

AVfoundation

全部标签

swift - 使用 CVMetalTextureCacheCreateTextureFromImage 在 Swift 中将 CMSampleBuffer 转换为 CVMetalTexture

我正在尝试建立一个简单的渲染相机输出到Metal层管道,它在Objective-C中工作得很好(有MetalVideoCapture示例应用程序)但是当我试着把它翻译成swift。我的超简单捕获缓冲区看起来像这样(忽略缺乏清理...)funccaptureOutput(captureOutput:AVCaptureOutput!,didOutputSampleBuffersampleBuffer:CMSampleBuffer!,fromConnectionconnection:AVCaptureConnection!){varerror:CVReturn!=nilletsourceIm

ios - 无延迟播放音效

我正在尝试制作一个小应用程序来自学一些swift,但我在弄清楚如何让我的应用程序以某种方式运行时遇到了一些问题。我的应用程序应该能够播放气喇叭的声音,就像它在这个视频中的声音一样......https://www.youtube.com/watch?v=Ks5bzvT-D6I但每次我反复点击屏幕时,在播放声音之前都会有轻微的延迟,所以听起来根本不像那样。importUIKitimportAVFoundationclassViewController:UIViewController{varaudioPlayer=AVAudioPlayer()overridefuncviewDidLoa

swift - 稍微延迟播放声音

我的应用程序中有一个声音,它会在出现View时自动启动;但是,正如标题所说,我希望这听起来有点延迟,大约在View出现后半秒。我尝试使用PlayAtTime,但它不起作用,或者我设置了错误...这是我的代码:varplayer=AVAudioPlayer?overridefuncviewDidLoad(){super.viewDidLoad()playAudioWithDelay()}funcplayAudioWithDelay(){letfile=NSBundle.mainBundle().URLForResource("PR1",withExtension:"wav")player

ios - 为什么 Swift 的 AVPlayer 在一次播放中加载 playerItem 两次?

我正在使用AVFoundation的AVPlayer播放外部mp3文件。我在后端有一个计数器,用于计算文件加载的次数。此服务的唯一客户端只有我,每当我触发播放AVPlayer时,计数器都会增加两个,这意味着AVPlayer发出两次请求。这是有原因的吗,或者我怎样才能防止这种情况发生?这是我的代码:@IBActionfunclisten(sender:UIButton){leturlstring="http://api.server.com/endpoint-to-mp3"leturl=NSURL(string:urlstring)letplayerItem=AVPlayerItem(U

ios - 如何在纵向模式下以全屏尺寸播放视频?

我想在启动画面中以纵向模式-全屏播放一些视频。那可能吗?请指导我找到合适的解决方案。我正在寻找快速的解决方案 最佳答案 创建一个UIView的子类,带有一个AVPlayer和一个函数createBackground:importAVFoundationclassBackgroundVideo:UIView{varplayer:AVPlayer?funccreateBackground(name:String,type:String){}}那么你的createBackground可能是这样的:funccreateBackground(

ios - CMSampleBufferGetImageBuffer(sampleBuffer) 返回 nil

我使用此代码从相机捕获视频,但CMSampleBufferGetImageBuffer(sampleBuffer)始终返回nil。问题是什么?。这是代码,我修改了此源代码以适应Swift4https://github.com/FlexMonkey/CoreImageHelpers/blob/master/CoreImageHelpers/coreImageHelpers/CameraCaptureHelper.swiftimportAVFoundationimportCoreMediaimportCoreImageimportUIKitclassCameraCaptureHelper:

ios - 如何在swift中播放电影

我是Swift语言的新手。我想开发简单的电影播放器​​应用程序来学习。我在我的项目中添加了一些电影(“。avi,.flv,.f4u....哪种格式最好)。我的View很简单。我的视​​图上有一个按钮。它称为“播放”。当用户点击按那个按钮,电影就会开始。另外,我还需要播放音频文件,例如mp3或.mid文件。你能告诉我如何在Swift中做到这一点吗?如果能举例说明就完美了。编辑我不是在询问所有代码。当我尝试将我的ObjectiveC代码转换为Swift时,我感到很困惑。我想知道如何在Swift中开发以下代码?NSString*path=[[NSBundlemainBundle]pathFo

ios - 在 Swift 中使用实时滤镜录制视频

我是swift的新手,正在尝试构建一个可以应用实时滤镜并使用应用的滤镜保存的相机应用程序。到目前为止,我可以使用应用的滤镜进行实时预览,但是当我保存视频时,它全黑了。importUIKitimportAVFoundationimportAssetsLibraryimportCoreMediaimportPhotosclassViewController:UIViewController,AVCaptureVideoDataOutputSampleBufferDelegate{varcaptureSession:AVCaptureSession!@IBOutletweakvarprevi

iphone - 适用于 iOS 的增强现实和快速前置摄像头应用程序

我正在开发一个应用程序,它需要使用iPhone的前置摄像头来实现使用swift的增强现实体验。我尝试使用ARKit,但ARKit制作的前置摄像头仅支持iPhoneX。那么,除了ARKit之外,我可以使用哪些框架或库与swift一起开发具有AR体验的应用程序,尤其是前置摄像头? 最佳答案 ARKit不是在iOS上创建“AR”体验的唯一方式,也不是Apple允许在AppStore中创建“AR”的唯一方式。如果您将“前置摄像头AR”定义为“使用前置摄像头,检测面部,允许放置虚拟2D/3D内容叠加层,这些内容似乎与面部保持连接”,那么有许多

Swift 4 切换到新的观察 API

我在使用Swift4中新的observeAPI时遇到了问题。player=AVPlayer()player?.observe(\.currentItem.status,options:[.new],changeHandler:{[weakself](player,newValue)inifletstatus=AVPlayer.Status(rawValue:(newValueas!NSNumber).intValue){}}但是我得到一个错误Typeofexpressionisambiguouswithoutmorecontext.我该如何解决?不确定keyPath语法。在上面的闭包中