草庐IT

mpeg2video

全部标签

iOS 4 : video quality with AVAsset based application

我正在尝试创建一个简单的视频应用程序(从ios4设备加载现有视频文件,使用直接像素访问对其进行编辑并以不同的名称保存)。我设法在真实设备(ipod4g)上加载、编辑和保存我的电影文件。我遇到的唯一问题与电影质量有关(原始与编辑的)。我不知道我做错了什么,但与输入文件相比,我的输出文件质量非常差。您可以在下面找到我如何加载我的电影:////***tmpfile***NSURL*movieUrl=[infoobjectForKey:@"UIImagePickerControllerMediaURL"];NSLog(@"pickercontrollermovieurl:%@",[movieU

javascript - 使用 video.js 在 ios 上内联播放视频?

我正在尝试使用video.js在所有平台上保持一致的视频皮肤。下面的代码适用于所有东西(chrome、firefox、ie、android),但ios上的safari(还没有测试桌面版的safari)。当尝试播放视频时,ios会跳转到它的默认视频播放器(quicktime?)。这是一个问题,因为我希望从皮肤中删除视频控件,以便用户必须观看视频。有没有一种方法可以使用video.js或其他网络插件来在所有平台上拥有一致的视频播放器用户界面,或者这对ios来说是不可能的吗?ToviewthisvideopleaseenableJavaScript,andconsiderupgradingt

android - Twilio Video - 调用参与者加入视频通话

我是Twilio的新手。我无法尝试通过电话通知参与者加入视频通话(房间)。我所知道的是,当参与者“A”创建房间“TestRoomName”以与参与者“B”进行一对一视频通话时,“B”必须知道房间名称是什么才能连接或以其他方式收到通知他必须加入。但是有没有一种方法可以让“A”创建房间后“B”接到电话,并在B回答后加入房间? 最佳答案 此处为Twilio开发人员布道师。ProgrammableVideo实际上并不包含邀请用户加入房间的机制,只是创建仅供这些用户使用的房间。您需要构建自己的通知方法来连接用户。我建议查看TwilioNoti

ios - 如何在 Safari for iOS 的 video.js 中设置 currentTime

其他都可以,但是currentTime的设置:我尝试了一些方法,例如:videojs("example_video_1",{},function(){this.currentTime(200);this.play();});这是行不通的。videojs("example_video_1").ready(function(){this.currentTime(200);});这也行不通。vardom=document.getElementById('example_video_1');dom.addEventListener("loadedmetadata",function(){dom

video - iPhone RGBA 到 ARGB

我正在使用glReadPixels抓取我的opengl场景的屏幕截图,然后在IOS4上使用AVAssetWriter将它们变成视频。我的问题是我需要将alphachannel传递给只接受kCVPixelFormatType_32ARGB和glReadPixels检索RGBA的视频。所以基本上我需要一种方法将我的RGBA转换为ARGB,换句话说,将alpha字节放在第一位。intdepth=4;unsignedcharbuffer[width*height*depth];glReadPixels(0,0,width,height,GL_RGBA,GL_UNSIGNED_BYTE,&buf

iphone - IOS [NSURL initFileURLWithPath :]: nil string parameter on loading video

我的视频内容有问题。我想从我的viewcontroller加载视频,但出现此错误:[NSURLinitFileURLWithPath:]:无字符串参数当我尝试从url加载视频时,视频不会显示。我确定我的变量targetURN不为零。我从这里加载我的ViewController:-(void)actionSheet:(UIActionSheet*)actionSheetclickedButtonAtIndex:(NSInteger)buttonIndex{switch(buttonIndex){case0:[selfopenVideoView:@"Video"];break;case1:

ios - GPUImage : Apply filer to existing video file

我正在尝试使用GPUImage框架的视频过滤器。我关注了Filteringandre-encodingamovie教程。它给我错误UnknowntypenameGPUImageRotationFilter。所以我尝试对我的视频文件应用一个简单的过滤器这是我的代码viewController.h@interfaceViewController:UIViewController{GPUImageMovie*_movieFile;GPUImageOutput*_sketchFilter;GPUImageMovieWriter*_movieWriter;}@property(nonatomic

ios - 如何: Local MP4 Video as Background in iOS App Objective C iOS 8

我尝试使用一个简单的13秒mp4视频作为登录屏幕的背景循环。我希望视频自动播放和循环播放。它没有音频,我不需要控件。我需要在它前面放置按钮和其他对象。我尝试使用WebView并将MP4制作为本教程中的GIF文件:https://medium.com/swift-programming/ios-make-an-awesome-video-background-view-objective-c-swift-318e1d71d0a2但问题是我的5MBMP4(转换为GIF)大小为95MB。我不能使用这种方法。有什么“好用”的方法吗?编辑:好的,这就是我现在所做的。我导入了AVFoundatio

ios - 简化的屏幕截图 : record video of only what appears within the layers of a UIView?

ThisSOanswer介绍了如何对UIView进行屏幕捕获。我们需要类似的东西,但不是单一的图像,我们的目标是在60秒内生成UIView中出现的所有内容的视频——概念上就像只记录UIView,忽略其他层。我们的视频应用程序会在用户录制的任何内容上叠加图层,最终目标是制作将这些图层与原始视频合并的主视频。但是,使用AVVideoCompositionCoreAnimationTool将层与原始视频合并非常、非常、非常慢:导出60秒的视频需要10-20秒。我们发现合并两个视频(即仅使用AVMutableComposition而不使用AVVideoCompositionCoreAnimat

iOS : Audio is missing in exported video

我正在尝试导出录制的视频。并取得成功。但是音频缺少最终导出的视频。所以我搜索了它并添加了下面的音频代码。if([[videoAssettracksWithMediaType:AVMediaTypeAudio]count]>0){[videoTrackinsertTimeRange:CMTimeRangeMake(kCMTimeZero,videoAsset.duration)ofTrack:[[videoAssettracksWithMediaType:AVMediaTypeAudio]objectAtIndex:0]atTime:kCMTimeZeroerror:nil];}但是添加