草庐IT

GStreamer1

全部标签

android - 使用 GStreamer 在 Android 上进行硬件视频解码

我必须在Android上实现一个GStreamer管道,它将从linux机器上的mpegts服务器获取实时mpegts流(也通过GStreamer实现)。现在,我有一个SamdungGalaxyTab2,5113,它有Android-4.1.2-JellyBean和APIlevel=16我的接收管道如下:data->pipeline=gst_parse_launch("udpsrccaps=\"video/mpegts,systemstream=true,packet-size=188\"!tsdemux!queue!h264parse!amcviddec-omxgoogleh264d

android - 无法使用 Android Studio 构建 GStreamer 教程

我正在尝试构建与gstreamer-sdk-android-arm-debug-2013.6bundle在一起的教程。src/jni目录下的Android.mk文件(教程1项目)引用了GSTREAMER_SDK_ROOT等环境变量。据我所知,AndroidStudio不会使用/将环境变量传递给构建脚本。是否有修改makefile和定义/检索构建脚本所需的键/值对的最佳实践? 最佳答案 好的,我有一个可行的解决方案。您可以将环境变量传递给ndk-build(或gradleExec生成的任何其他进程)。在我的例子中,我想为clean和b

android - 使用 Gstreamer 或 ffmpeg 在 Android 上创建 rtsp 客户端

我想在android上流式传输rtsp流,我终于来了结论是我不能使用androidAPI的MediaPlayer、Videoview等,因为延迟对我来说是个大问题。我需要Gstreamer或ffmpeg客户端能否提供我读到Gstreamer比ffmpeg高一级并使用ffmpeg编解码器工作。我想知道哪个更容易用于创建android客户端。在Gstreamer上工作或直接在ffmpeg上工作。如果我使用Gstreamerandroid客户端,是否还必须使用Gstreamer服务器来流式传输数据?目前我正在使用Live555RTSP服务器流数据 最佳答案

android - Android 上的 GStreamer

谁能给我任何关于让GStreamer在Android上运行的提示。我以前从未使用过它,我想将它与FFmpeg一起使用(我已经编译了FFmpeg并且在Android上运行良好)。我只想使用GStreamer来帮助进行一些处理,因为学习FFmpegAPI有点像噩梦哈哈。在此先感谢您的任何帮助! 最佳答案 也试试这个链接:http://gstreamer.freedesktop.org/wiki/GstreamerAndroid_InstallInstructions同时订阅gstreamerandroid邮件列表:http://list

gstreamer插件开发-What are states?

Whatarestates?状态描述元素实例是否初始化、是否准备好传输数据以及当前是否正在处理数据。在GStreamer中定义了四种状态:GST_STATE_NULLGST_STATE_READYGST_STATE_PAUSEDGST_STATE_PLAYING从现在开始,它们将被简单地称为“NULL”、“READY”、“PAUSED”和“PLAYING”。GST_STATE_NULL是元素的默认状态。在这种状态下,它没有分配任何运行时资源,没有加载任何运行时库,显然它不能处理数据。GST_STATE_READY是元素可以进入的下一个状态。在READY状态下,元素分配了所有默认资源(运行时库、

c++ - 使用 cap_gstreamer 错误编译 opencv 失败

我正在尝试在Slackware4.1上编译opencv。但是我每次都遇到以下错误。Infileincludedfrom/usr/include/gstreamer-0.10/gst/pbutils/encoding-profile.h:29:0,from/tmp/SBo/opencv-2.4.11/modules/highgui/src/cap_gstreamer.cpp:65:/usr/include/gstreamer-0.10/gst/pbutils/gstdiscoverer.h:35:9:error:'GstMiniObjectClass'doesnotnameatypety

ubuntu安装GStreamer1.0

一、准备工作Gstreamer是一个支持Windows,Linux,Android,iOS的跨平台的多媒体框架,应用程序可以通过管道(Pipeline)的方式,将多媒体处理的各个步骤串联起来,达到预期的效果。每个步骤通过元素(Element)基于GObject对象系统通过插件(plugins)的方式实现,方便了各项功能的扩展。GStreamer在Linux发行版中包含官方推荐使用最新版本的系统,比如Fedora、Ubuntu、Debain或OpenSuse。二、安装所需依赖和GStreamer一共15个依赖(包含GStreamer),系统已安装过的不会重复安装,未安装过的将会安装。sudoap

c++ - GStreamer 似乎没有调用我的回调

我有一个Qt应用程序,它在一个单独的线程中执行与GStreamer相关的事情。虽然我认为我已经遵循了设置信号回调的规则,但我指定的回调函数似乎没有被调用。接下来是回调函数,它所做的只是将一些内容记录到控制台以进行调试:staticgbooleanCb(GstBus*bus,GstMessage*msg,gpointerdata){std::cout我用来启动和监控流(来自IP摄像机的实时RTSP/H.264提要)的顺序是:GstElement*playBin=gst_parse_launch("");GstBus*bus=gst_pipeline_get_bus(GST_PIPELIN

c++ - 如何在基于 GStreamer 的 Qt 中实现视频小部件?

我想使用Qt创建一个可以播放本地视频文件的简单GUI应用程序。我可以使用Phonon来完成所有幕后工作,但我需要有更多的控制权。我已经成功地使用decodebin和autovideosink元素实现了GStreamer管道。现在我想使用Qt小部件将输出引导至。有人成功过吗?(我想是的,因为有基于GStreamer的基于Qt的视频播放器。)有人能指出正确的方向吗?注意:这个问题类似于我之前发布的关于如何将Qt与传入RTP流连接的问题。这似乎颇具挑战性。我认为这个问题会更容易回答。更新1Patrice关于使用libVLC的建议已经很有帮助了。这是在VLC网站上找到的代码的更简洁版本:Sam

【音视频处理】基础框架介绍,FFmpeg、GStreamer、OpenCV、OpenGL

大家好,欢迎来到停止重构的频道。 本期我们介绍音视频处理的基础框架。包括FFmpeg、GStreamer、OpenCV、OpenGL。我们按这样的分类介绍:1、编解码处理:FFmpeg、GStreamer2、图像分析:OpenCV3、复杂图像生成:OpenGL编解码处理:FFmpeg、GStreamer首先是编解码处理的基础框架,这类基础框架的应用场景是最为广泛的。因为在绝大数情况下,如视频高清/标清转换、视频文件轮播、视频流多合一处理、导播信号源切换、视频播放等等,实际上都可以归类为编解码处理。对于编解码处理的基础框架,比较流行且可靠的是FFmpeg和GStreamer,比较出名的直播工具O