草庐IT

video_codec_ctx

全部标签

android - 实时 RTSP 流解码 : large video lag using MediaPlayer on Android

我正在从PC上的VLC播放实时RTSP流到AndroidMediaPlayer类(都在同一本地网络上)。它播放流畅,没有错误-问题是屏幕上的解码视频比直播晚大约5到7秒。从调试和回调中,我可以看到实时数据在启动mMediaPlayer.prepareAsync()后onPrepared()我调用mMediaPlayer.start()。看起来这个start()播放了最初从准备阶段开始捕获的视频。我在start()之前和之后都尝试过seekTo(5000),但它对延迟没有任何影响。对于实时视频通话应用程序,几秒钟的设置延迟是完全可以的,但是一旦出现视频,这种延迟对我来说是无法接受的。pu

Shaka Player做什么< Video>单独的标签不这样做?

据我了解,现代浏览器已经发展到标签可以播放HLS或MPEG-DASH流,而没有JavaScript。ShakaPlayer(https://github.com/google/shaka-player)似乎是一个JS库,用于...标签已经做到了。然而,它得到了积极的维护。Shaka提供了什么不是吗?我什么时候/为什么要使用它?看答案据我了解,现代浏览器已经发展到标签可以播放HLS或MPEG-DASH流而没有JavaScript的地步。不,事实并非如此。Safari本地支持HLS,但仅此而已。用于破折号和HLS的JavaScript库使用MediaSource扩展名(MSE)将数据推向浏览器的编

提前对齐,视频问答新SOTA!北大全新Video-LLaVA视觉语言大模型,秒懂视频笑点

最近,来自北大的研究人员提出了一种全新的视觉语言大模型——Video-LLaVA,为alignmentbeforeprojection提供了新颖的解决方案。与以往的视觉语言大模型不同,Video-LLaVA关注的是提前将图片和视频特征绑定到统一个特征空间,使LLM能够从统一的视觉表示从学习模态的交互。此外,为了提高计算效率,Video-LLaVA还联合了图片和视频进行训练和指令微调。论文地址:https://arxiv.org/pdf/2310.01852.pdfGitHub地址:https://github.com/PKU-YuanGroup/Video-LLaVAHuggingface地址

android - 实时/零延迟视频流 : what codec parameters to use?

我正在编写一个Android应用程序,其中包括从台式电脑发送和接收视频流。为了让应用程序正常运行,我们需要尽可能少的延迟,必要时牺牲视频质量。我们在两端都使用了gstreamer1.45,但是根据当前的管道,我们在GalaxyNoteS2上至少有0.5秒的延迟,如果两个设备都在同一个网络上(稍后这应该可以通过VPN)。发送者管道appsrcname=vs_srcformat=timedo-timestamp=truecaps="video/x-raw,format=(string)RGB,width=(int)640,height=(int)480,framerate=(fractio

【论文阅读】Progressive Spatio-Temporal Prototype Matching for Text-Video Retrieval

资料链接论文链接:https://openaccess.thecvf.com/content/ICCV2023/papers/Li_Progressive_Spatio-Temporal_Prototype_Matching_for_Text-Video_Retrieval_ICCV_2023_paper.pdf代码链接:https://github.com/imccretrieval/prost背景与动机文章发表于ICCV2023,来自中科大IMCC实验室。文本-视频检索是近年来比较新兴的领域,随着多模态和大模型的发展,这一领域也迸发出了前所未有的潜力。目前的主流方法是学习一个jointem

Stable Video Diffusion问世!3D合成功能引关注,网友:进步太快

StableDiffusion官方终于对视频下手了——发布生成式视频模型StableVideoDiffusion(SVD)。StabilityAI官方博客显示,全新SVD支持文本到视频、图像到视频生成:并且还支持物体从单一视角到多视角的转化,也就是3D合成:根据外部评估,官方宣称SVD甚至比runway和Pika的视频生成AI更受用户欢迎。虽然目前只发布了基础模型,但官方透露“正计划继续扩展,建立类似于StableDiffusion的生态系统”。目前论文代码权重已上线。最近视频生成领域不断出现新玩法,这次轮到StableDiffusion下场,以至于网友们的第一反应就是“快”,进步太快!但仅从

Stable Video Diffusion来了,代码权重已上线

AI画图的著名公司StabilityAI,终于入局AI生成视频了。本周二,基于StableDiffusion的视频生成模型StableVideoDiffusion来了,AI社区马上开始了热议。很多人都表示「我们终于等到了」。项目地址:https://github.com/Stability-AI/generative-models现在,你可以基于原有的静止图像来生成一段几秒钟的视频。基于StabilityAI原有的StableDiffusion文生图模型,StableVideoDiffusion成为了开源或已商业行列中为数不多的视频生成模型之一。但目前还不是所有人都可以使用,StableVid

android - EXTRA_VIDEO_QUALITY 被忽略

我正在尝试用Intent录制视频,视频质量很高,大小超过5mb。我正在使用运行android4.2.2的三星GalaxyS这是我的代码:Intenti=newIntent("android.media.action.VIDEO_CAPTURE");//i.putExtra(android.provider.MediaStore.EXTRA_OUTPUT,//Uri.fromFile(FileUtils.getFileName(FileTypes.VIDEO)));i.putExtra(android.provider.MediaStore.EXTRA_VIDEO_QUALITY,0);

计算机视觉算法中的视频插帧(Video Interpolation)

目录引言插帧算法原理光流方法深度学习方法应用领域电影特效视频游戏运动捕捉挑战和未来发展方向结论引言视频插帧(VideoInterpolation)是一种计算机视觉算法,用于在视频中插入额外的帧以提高视频的流畅度和观看体验。视频插帧技术可以应用于各种领域,比如电影特效、视频游戏、运动捕捉等,并在近年来得到了广泛应用和研究。插帧算法原理视频插帧算法的核心原理是通过在已有的视频帧之间插入额外的帧,以增加视频的帧率。常用的插帧算法包括基于光流的方法、基于深度学习的方法等。光流方法光流方法是一种基于像素运动的插帧算法。该方法通过分析相邻帧之间的像素变化,推测出像素点在下一帧中的位置,从而生成插值帧。常用

解决前端使用video标签在Chrome浏览器出现播放一次不能再次播放和不能拖动进度条问题

先来说一下我的情况:后台提供了一个get请求的接口直接返回,只能通过服务器http请求返回视频流(类似:http://127.0.0.1:8181/file?name=movie.mp4),然后我就直接把这个字符串放到video标签的src属性中,出现了两个问题:1.在Chrome浏览器不能再次播放(我尝试了FireFox浏览器是正常的,而这个需求只在Chrome浏览器内核上实现所以没有尝试其他浏览器。);2.在Chrome浏览器上不能拖动滚动条。一下是我的解决办法。1.在chrome浏览器不能再次播放查询ChatGPT之后得到了结果,使用video标签播放数据流视频,但是播放一次之后重新播放