草庐IT

AVfoundation

全部标签

swift - 如何在 Swift 中停止/取消 playSoundFileNamed?

我正在尝试制作一个按钮,按下时会播放声音,再次按下时声音会停止。我正在使用playSoundFileNamed:runAction:withKey:和removeActionForKey,但它不起作用。我的另一个问题是,是否有一种方法不仅可以停止声音,还可以暂停它(这样它就会从暂停的同一部分开始,而不是从头开始)。我在stackoverflow看到过类似的话题,但还没有找到我的问题的答案。提前谢谢你。importSpriteKitimportAVFoundationvarfiresoundon=falseprivatevarbackgroundMusicPlayer:AVAudioPl

ios - Swift iOS AVSampleBufferDisplayLayer 设置视频层

我正在尝试在基于Swift的项目中设置视频流查看器。我查看了以下非常有帮助的内容(objective-c):HowAVSampleBufferDisplayLayerdisplaysH.264在Swift上下文中,我很难理解CMTimebaseCreateWithMasterClock要求CMTimebase相关元素的类型为UnsafeMutablePointer。有人能够解释如何转换为这个并返回以解决以下代码部分中的问题。varcontrolTimebase:CMTimebasevarmyAllocator:CFAllocator!CMTimebaseCreateWithMaster

ios - 从 MPRemoteCommandCenter 丢失 "Now Playing"状态

我正在为iOS创建一个可以使用MPRemoteCommandCenter进行控制的应用程序。这很好用。当将应用程序AVAudioSession类别从AVAudioSessionCategoryPlayback更改为AVAudioSessionCategoryPlayback,withOptions:.MixWithOthers时,它停止接收远程控制事件。这很好。但是当我将类别改回AVAudioSessionCategoryPlayback时,我没有按预期收到来自MPRemoteCommandCenter的事件。我如何才能恢复我的应用程序的“正在播放”状态?

swift - AVCaptureMovieFileOutput 中的自定义文件格式

我正在开发一个osx捕获应用程序,我可以使用AVFoundation提供的文件格式UTIs来分配文件输出格式,如.mov、.mp4、.m4v等我可以创建自定义文件格式UTIs来保存捕获文件,例如.mkv或.flv吗?DeclaringNewUniformTypeIdentifiers我找到了声明新的UTIs的链接,但不知道如何将第三方库与此集成。有谁知道我在哪里可以找到第三方库来将捕获文件保存为.mkv格式? 最佳答案 我认为您不能自定义AVCaptureFileOutput,尽管您可以自由地将AVCaptureVideoDataO

swift - Swift 中的视频合并方向

我正在使用raywenderlich中的视频合并教程。我总是得到一个90度旋转的视频。当我添加一些不同的咖啡因旋转代码时,我的视频就看不到了。你能告诉我包含CGAffineTransformMakeRotation的代码吗?我的代码如下funcorientationFromTransform(transform:CGAffineTransform)->(orientation:UIImageOrientation,isPortrait:Bool){varassetOrientation=UIImageOrientation.UpvarisPortrait=falseiftransfor

ios - 将 ios 的 "Player"框架更新为 swift 3

我正在开发一个使用https://github.com/piemonte的“播放器”框架的应用程序自从我更新到swift3后,我收到了关于一个特定功能的错误。我不太确定如何修复它,因为我还不是swift3的专业人士。有什么帮助吗?:D代码(swift2.3)(请帮我更新到swift3)privatevarPlayerObserverContext=0privatevarPlayerItemObserverContext=0privatevarPlayerLayerObserverContext=0overrideopenfuncobserveValue(forKeyPathkeyPat

ios - 获取音频队列缓冲区的 <AudioTimeStamp>

我正尝试在Swift中创建一个连续的FIFO录音机。我在尝试创建audioQueueCallback时遇到问题。来自文档AudioTimeStamp有这个初始化方法:AudioTimeStamp(mSampleTime:Float64,mHostTime:UInt64,mRateScalar:Float64,mWordClockTime:UInt64,mSMPTETime:SMPTETime,mFlags:AudioTimeStampFlags,mReserved:UInt32)我不知道如何使用它。在我看来,该设备应该有一个可靠的内部时钟,以便能够管理音频队列,但我还没有找到它的任何文

ios - Swift 中的音频队列服务播放器不调用回调

我已经研究音频队列服务大约一个星期了,并且我已经从Apple音频队列服务指南中编写了一个快速版本。我在线性PCM中录制并使用此方法保存到磁盘:AudioFileCreateWithURL(url,kAudioFileWAVEType,&format,AudioFileFlags.dontPageAlignAudioData.union(.eraseFile),&audioFileID)我的AudioQueueOutputCallback没有被调用,即使我可以验证我的bufferSize看起来足够大并且它正在传递实际数据。我没有收到任何OSStatus错误,看起来一切正常。Swift编写

swift - AVAssetWriter队列指导Swift 3

有人可以给我一些关于在AVFoundation中使用队列的指导吗?稍后,在我的应用中,我想对单个帧进行一些处理,因此我需要使用AVCaptureVideoDataOutput。开始时,我想我会捕获图像,然后使用AVAssetWriter写入它们(未处理)。我通过如下设置AVCaptureSession成功地将帧从相机流式传输到图像预览:funcinitializeCameraAndMicrophone(){//setupthecaptureSessioncaptureSession=AVCaptureSession()captureSession.sessionPreset=AVCap

ios - swift 3 : How to export video with text using AVVideoComposition

我正在尝试使用AVVideoComposition在视频顶部添加一些文本并保存视频。这是我使用的代码:我创建一个AVMutableComposition和AVVideoCompositionvarmutableComp=AVMutableComposition()varmutableVidComp=AVMutableVideoComposition()varcompositionSize:CGSize?funcconfigureAsset(){letoptions=[AVURLAssetPreferPreciseDurationAndTimingKey:"true"]letvideoA