草庐IT

GStreamer1

全部标签

iphone - 构建 Gstreamer iOS 教程项目时出现链接器错误

我从theirsite下载并安装了GstreameriOS库.我将教程复制到我自己的文件夹并尝试在Xcode中构建项目。我收到以下链接器错误。我对此一无所知。Gstreamer.framework链接到所有目标。Undefinedsymbolsforarchitecturearmv7:"_iconv_open",referencedfrom:__nl_find_msginGStreamer(libintl_a_armv7_-dcigettext.o)(maybeyoumeant:_g_iconv_open)"_iconv",referencedfrom:__nl_find_msginG

【GStreamer 】3-2 gstreamer实现USB相机采集图片和录像

0、硬件平台和测试环境说明        感觉网上看这一类说明,常常最大的疑惑就是,为什么别人能用,我自己就不成了,其实很多时候都是各自的环境交代不清楚所致。所以我觉得讲操作前,必须先交代自己的测试环境。        我自己使用的是TX1核心模块,安装ubuntu18.04的环境。安装了英伟达配套的所有cuda的套件库。nvidia@nvidia-desktop:~$sudolsb_release-aNoLSBmodulesareavailable.DistributorID:UbuntuDescription:Ubuntu18.04.5LTSRelease:18.04Codename:bi

ios - 如何将 iOS 8 中的 AVSampleBufferDisplayLayer 用于带有 GStreamer 的 RTP H264 流?

在得知iOS8中的程序员可以使用HW-H264-Decoder后,我想立即使用它。WWDC2014对“直接访问视频编码和解码”有一个很好的介绍。你可以看看here.基于那里的案例1,我开始开发一个应用程序,它应该能够从GStreamer获取H264-RTP-UDP-Stream,将其放入“appsink”元素中以直接访问NAL单元并进行转换以创建CMSampleBuffers,这是我的AVSampleBufferDisplayLayer然后可以显示。执行所有操作的有趣代码如下:////GStreamerBackend.m//#import"GStreamerBackend.h"NSSt

ios - 如何将 iOS 8 中的 AVSampleBufferDisplayLayer 用于带有 GStreamer 的 RTP H264 流?

在得知iOS8中的程序员可以使用HW-H264-Decoder后,我想立即使用它。WWDC2014对“直接访问视频编码和解码”有一个很好的介绍。你可以看看here.基于那里的案例1,我开始开发一个应用程序,它应该能够从GStreamer获取H264-RTP-UDP-Stream,将其放入“appsink”元素中以直接访问NAL单元并进行转换以创建CMSampleBuffers,这是我的AVSampleBufferDisplayLayer然后可以显示。执行所有操作的有趣代码如下:////GStreamerBackend.m//#import"GStreamerBackend.h"NSSt

jetson使用opencv和gstreamer调用csi摄像头报错:[ WARN:0] | GStreamer warning: Cannot query video position:

[WARN:0]global/home/nvidia/host/build_opencv/nv_opencv/modules/videoio/src/cap_gstreamer.cpp(933)openOpenCV|GStreamerwarning:Cannotqueryvideoposition:status=0,value=-1,duration=-1出现类似的warning基本都是一个问题VideoCapture加个参数就好了cap=VideoCapture(0,cv.CAP_V4L2)

gstreamer中tee如何实现动态增减支路(预览+截图+录像)

系列文章目录Gstreamer中获取帧数据的方式gstreamer中如何使用probe(探针)获取帧数据gstreamer拉流rtsp使用appsink获取帧数据(预览+截图)gstreamer中如何使用fakesink获取帧数据(预览+截图)文章目录系列文章目录前言Tee管道结构qt程序界面Tee的request方式连接和断开(录像)总结附ubuntu20.04qt5.14工程链接前言前面已经介绍过多种方式实现在显示预览的同时如何获取帧数据用来截图。本文就继续研究在此前的基础上利用tee如何实现可控的录像的支路。TeeTee有一个sinkpad而没有初始的sourcepads:需要请求tee

gstreamer中tee如何实现动态增减支路(预览+截图+录像)

系列文章目录Gstreamer中获取帧数据的方式gstreamer中如何使用probe(探针)获取帧数据gstreamer拉流rtsp使用appsink获取帧数据(预览+截图)gstreamer中如何使用fakesink获取帧数据(预览+截图)文章目录系列文章目录前言Tee管道结构qt程序界面Tee的request方式连接和断开(录像)总结附ubuntu20.04qt5.14工程链接前言前面已经介绍过多种方式实现在显示预览的同时如何获取帧数据用来截图。本文就继续研究在此前的基础上利用tee如何实现可控的录像的支路。TeeTee有一个sinkpad而没有初始的sourcepads:需要请求tee

opencv打不开摄像头 OpenCV | GStreamer warning: pipeline have not been created

具体报错如下图所示:按照提示以为是GStreamer插件没有安装所以又关防火墙安插件,之后依然没有办法打开;又看到一些一些博主说是计算机摄像头set分辨率问题,但是摄像头分辨率无法设置,摆烂时隔两天,我又可以了,正确方法如下:切换到编译运行环境pipinstallopencv-python直接安装opencv并不会下载这个库,必须要再安装一次,同时要在命令行安装,pychar里是直接搜索不到的。重新运行就ok啦:

【GStreamer 】3-USB相机的各种显示,播放常用指令

0、硬件平台和测试环境说明        感觉网上看这一类说明,常常最大的疑惑就是,为什么别人能用,我自己就不成了,其实很多时候都是各自的环境交代不清楚所致。所以我觉得讲操作前,必须先交代自己的测试环境。        我自己使用的是TX1核心模块,安装ubuntu18.04的环境。安装了英伟达配套的所有cuda的套件库。 nvidia@nvidia-desktop:~$sudolsb_release-aNoLSBmodulesareavailable.DistributorID:UbuntuDescription:Ubuntu18.04.5LTSRelease:18.04Codename:b

Ubuntu20.04 编译 gstreamer 支持gpu硬编解 opencv-python同支持gst

什么是Gstreamer?Gstreamer是一个支持Windows,Linux,Android,iOS的跨平台的多媒体框架,应用程序可以通过管道(Pipeline)的方式,将多媒体处理的各个步骤串联起来,达到预期的效果。每个步骤通过元素(Element)基于GObject对象系统通过插件(plugins)的方式实现,方便了各项功能的扩展。下图是对基于Gstreamer框架的应用的简单分层:可参考新版编解码gstreamer自1.17.1开始,便抛弃了老版本的gpu硬编解方案,采取了新方案,新方案对环境要求放松,意味着更好编译,更稳定:老版方案装一些预环境还比较麻烦,所以建议抛弃老版本,用新版