草庐IT

ios - AVAssetExportSession 因特定视频的未知错误 -12780 而失败

我无法追踪Assets导出session失败背后的潜在问题。问题仅针对一个视频,我认为问题出在它的音轨上,因为我成功导出了没有音轨(只有视频轨)的Assets。视频轨道使用AVAssetReader解码,样本缓冲区在被重写为新的视频轨道之前进行处理;音轨在没有解码或任何中间处理的情况下通过。然而,即使不处理视频样本缓冲区,也会发生同样的故障。我也尝试过以相反的方式进行操作——只有音频,没有视频轨道——但其他视频仍然工作得很好,而这个特定的视频失败了。我想视频的音轨存在固有问题,但我无法推断出问题所在,因此无法解决。这是我的代码:AVAssetExportSession*assetExp

ios - AVAssetExportSession 因特定视频的未知错误 -12780 而失败

我无法追踪Assets导出session失败背后的潜在问题。问题仅针对一个视频,我认为问题出在它的音轨上,因为我成功导出了没有音轨(只有视频轨)的Assets。视频轨道使用AVAssetReader解码,样本缓冲区在被重写为新的视频轨道之前进行处理;音轨在没有解码或任何中间处理的情况下通过。然而,即使不处理视频样本缓冲区,也会发生同样的故障。我也尝试过以相反的方式进行操作——只有音频,没有视频轨道——但其他视频仍然工作得很好,而这个特定的视频失败了。我想视频的音轨存在固有问题,但我无法推断出问题所在,因此无法解决。这是我的代码:AVAssetExportSession*assetExp

ios - 使用 AVFoundation 裁剪 AVAsset 视频

我正在使用AVCaptureMovieFileOutput来录制一些视频。我使用AVLayerVideoGravityResizeAspectFill显示预览层,它会稍微放大。我遇到的问题是最终视频更大,包含在预览期间不适合屏幕的额外图像。这是预览和生成的视频有没有一种方法可以使用AVAssetExportSession指定要从视频中剪切的CGRect?编辑----当我将CGAffineTransformScale应用于AVAssetTrack时,它会放大视频,并使用AVMutableVideoCompositionrenderSize设置为view.bounds它会裁掉两端。太好了,

ios - 使用 AVFoundation 裁剪 AVAsset 视频

我正在使用AVCaptureMovieFileOutput来录制一些视频。我使用AVLayerVideoGravityResizeAspectFill显示预览层,它会稍微放大。我遇到的问题是最终视频更大,包含在预览期间不适合屏幕的额外图像。这是预览和生成的视频有没有一种方法可以使用AVAssetExportSession指定要从视频中剪切的CGRect?编辑----当我将CGAffineTransformScale应用于AVAssetTrack时,它会放大视频,并使用AVMutableVideoCompositionrenderSize设置为view.bounds它会裁掉两端。太好了,

ios - 如何将 AVAsset 转换为 NSData 或将其保存到文件管理器

我正在尝试使用AVAsset来录制音频文件,然后首先将其存储在NSFileManager上,然后将其转换为nsdata我调用API以存储起来。我成功创建了AVAsset录音文件并使用第三方类SCPlayer播放它。现在的问题是我不知道如何使用AVAsset文件将其保存在文件管理器中,然后在调用API后通过将其转换为NSData来发送它.有什么方法可以将AVAsset转换为NSData???请帮忙... 最佳答案 您可以执行以下操作:使用AVAssetExportSession将您的AVAsset对象导出到文件路径网址。使用dataW

ios - 如何将 AVAsset 转换为 NSData 或将其保存到文件管理器

我正在尝试使用AVAsset来录制音频文件,然后首先将其存储在NSFileManager上,然后将其转换为nsdata我调用API以存储起来。我成功创建了AVAsset录音文件并使用第三方类SCPlayer播放它。现在的问题是我不知道如何使用AVAsset文件将其保存在文件管理器中,然后在调用API后通过将其转换为NSData来发送它.有什么方法可以将AVAsset转换为NSData???请帮忙... 最佳答案 您可以执行以下操作:使用AVAssetExportSession将您的AVAsset对象导出到文件路径网址。使用dataW

iphone - 如何在 iOS 上捕获的视频中添加水印

这个问题在这里已经有了答案:iPhoneWatermarkonrecordedVideo.(6个答案)关闭6年前。我想知道是否有人可以告诉我如何实现这一目标。如果一直在考虑几个解决方案:从捕获的视频中创建单独的图像,然后将它们按图像合并,然后创建一个新的AVAsset...您不觉得这听起来有点复杂吗?合并2个视频,一个是透明的(一个带有水印),另一个是用相机拍摄的Assets。

iphone - 如何在 iOS 上捕获的视频中添加水印

这个问题在这里已经有了答案:iPhoneWatermarkonrecordedVideo.(6个答案)关闭6年前。我想知道是否有人可以告诉我如何实现这一目标。如果一直在考虑几个解决方案:从捕获的视频中创建单独的图像,然后将它们按图像合并,然后创建一个新的AVAsset...您不觉得这听起来有点复杂吗?合并2个视频,一个是透明的(一个带有水印),另一个是用相机拍摄的Assets。

ios - AVFoundation - 反转 AVAsset 并输出视频文件

我见过这个问题被问过几次,但似乎都没有任何有效的答案。要求是反转并输出视频文件(不仅仅是反转播放),保持与源视频相同的压缩、格式和帧速率。理想情况下,该解决方案将能够在内存或缓冲区中完成所有这些操作,并避免将帧生成为图像文件(例如:使用AVAssetImageGenerator)然后重新编译它(资源密集型、不可靠的时序)结果、原始帧/图像质量的变化等)。--我的贡献:这仍然无法正常工作,但到目前为止我已经尝试过的最好的方法:使用AVAssetReader将样本帧读入CMSampleBufferRef[]数组。使用AVAssetWriter以相反的顺序写回。问题:似乎每个帧的时间都保存在

ios - AVFoundation - 反转 AVAsset 并输出视频文件

我见过这个问题被问过几次,但似乎都没有任何有效的答案。要求是反转并输出视频文件(不仅仅是反转播放),保持与源视频相同的压缩、格式和帧速率。理想情况下,该解决方案将能够在内存或缓冲区中完成所有这些操作,并避免将帧生成为图像文件(例如:使用AVAssetImageGenerator)然后重新编译它(资源密集型、不可靠的时序)结果、原始帧/图像质量的变化等)。--我的贡献:这仍然无法正常工作,但到目前为止我已经尝试过的最好的方法:使用AVAssetReader将样本帧读入CMSampleBufferRef[]数组。使用AVAssetWriter以相反的顺序写回。问题:似乎每个帧的时间都保存在