草庐IT

video-embedding

全部标签

ios - 如何在 Safari for iOS 的 video.js 中设置 currentTime

其他都可以,但是currentTime的设置:我尝试了一些方法,例如:videojs("example_video_1",{},function(){this.currentTime(200);this.play();});这是行不通的。videojs("example_video_1").ready(function(){this.currentTime(200);});这也行不通。vardom=document.getElementById('example_video_1');dom.addEventListener("loadedmetadata",function(){dom

video - iPhone RGBA 到 ARGB

我正在使用glReadPixels抓取我的opengl场景的屏幕截图,然后在IOS4上使用AVAssetWriter将它们变成视频。我的问题是我需要将alphachannel传递给只接受kCVPixelFormatType_32ARGB和glReadPixels检索RGBA的视频。所以基本上我需要一种方法将我的RGBA转换为ARGB,换句话说,将alpha字节放在第一位。intdepth=4;unsignedcharbuffer[width*height*depth];glReadPixels(0,0,width,height,GL_RGBA,GL_UNSIGNED_BYTE,&buf

iphone - IOS [NSURL initFileURLWithPath :]: nil string parameter on loading video

我的视频内容有问题。我想从我的viewcontroller加载视频,但出现此错误:[NSURLinitFileURLWithPath:]:无字符串参数当我尝试从url加载视频时,视频不会显示。我确定我的变量targetURN不为零。我从这里加载我的ViewController:-(void)actionSheet:(UIActionSheet*)actionSheetclickedButtonAtIndex:(NSInteger)buttonIndex{switch(buttonIndex){case0:[selfopenVideoView:@"Video"];break;case1:

ios - GPUImage : Apply filer to existing video file

我正在尝试使用GPUImage框架的视频过滤器。我关注了Filteringandre-encodingamovie教程。它给我错误UnknowntypenameGPUImageRotationFilter。所以我尝试对我的视频文件应用一个简单的过滤器这是我的代码viewController.h@interfaceViewController:UIViewController{GPUImageMovie*_movieFile;GPUImageOutput*_sketchFilter;GPUImageMovieWriter*_movieWriter;}@property(nonatomic

ios - 如何: Local MP4 Video as Background in iOS App Objective C iOS 8

我尝试使用一个简单的13秒mp4视频作为登录屏幕的背景循环。我希望视频自动播放和循环播放。它没有音频,我不需要控件。我需要在它前面放置按钮和其他对象。我尝试使用WebView并将MP4制作为本教程中的GIF文件:https://medium.com/swift-programming/ios-make-an-awesome-video-background-view-objective-c-swift-318e1d71d0a2但问题是我的5MBMP4(转换为GIF)大小为95MB。我不能使用这种方法。有什么“好用”的方法吗?编辑:好的,这就是我现在所做的。我导入了AVFoundatio

ios - 简化的屏幕截图 : record video of only what appears within the layers of a UIView?

ThisSOanswer介绍了如何对UIView进行屏幕捕获。我们需要类似的东西,但不是单一的图像,我们的目标是在60秒内生成UIView中出现的所有内容的视频——概念上就像只记录UIView,忽略其他层。我们的视频应用程序会在用户录制的任何内容上叠加图层,最终目标是制作将这些图层与原始视频合并的主视频。但是,使用AVVideoCompositionCoreAnimationTool将层与原始视频合并非常、非常、非常慢:导出60秒的视频需要10-20秒。我们发现合并两个视频(即仅使用AVMutableComposition而不使用AVVideoCompositionCoreAnimat

iOS : Audio is missing in exported video

我正在尝试导出录制的视频。并取得成功。但是音频缺少最终导出的视频。所以我搜索了它并添加了下面的音频代码。if([[videoAssettracksWithMediaType:AVMediaTypeAudio]count]>0){[videoTrackinsertTimeRange:CMTimeRangeMake(kCMTimeZero,videoAsset.duration)ofTrack:[[videoAssettracksWithMediaType:AVMediaTypeAudio]objectAtIndex:0]atTime:kCMTimeZeroerror:nil];}但是添加

iOS : Crop video weird green line left and bottom side in video

-如何去除视频上的绿线。当此时裁剪视频2或3次时,在视频左侧或底部或左侧和底部两侧显示绿色或混合绿红色闪烁线。视频裁剪方法。-(void)cropButton{CGRectcropFrame=self.cropView.croppedImageFrame;//loadourmovieAssetAVAsset*asset;asset=[AVAssetassetWithURL:[NSURLfileURLWithPath:[self.videoDataArrobjectAtIndex:self.selectedIndex-1]]];//createanavassetrackwithouras

hadoop - 无法在 MapReduce 模式下使用 Java 运行 Embedded Pig

我正在使用Pig0.12.0和Hadoop2.2.0。我已经在本地和mapreduce模式下成功地从gruntshell和pig批处理脚本运行pig。现在我正在尝试从Java中的嵌入式pig运行pig。话虽如此,我也成功地在本地模式下运行了嵌入式pig。但是,我在mapreduce模式下运行embeddedpig时遇到了问题。问题是:成功编译类后,运行时没有任何反应java-cpPigMapRedMode后来我看到有人说我应该在类路径中包含pig.properties。比如fs.default.name=hdfs://:mapred.job.tracker=:但是,在Hadoop2.2

hadoop - 错误 : Failed to create Data Storage while running embedded pig in java

我写了一个简单的程序来测试java中的嵌入式pig在mapreduce模式下运行。我运行的服务器hadoop版本是0.20.2-cdh3u4a,pig版本是0.10.0-cdh3u4a。当我尝试在本地模式下运行时,它运行成功。但是当我尝试以mapreduce模式运行时,它给了我错误。我使用以下命令运行我的程序,如http://pig.apache.org/docs/r0.9.1/cont.html#embed-java中所示javac-cppig.jarEmbedPigTest.javajavac-cppig.jar:.:/etc/hadoop/confEmbedPigTest.jav