草庐IT

c++ - 编写 OpenMAX IL 组件,从哪里开始

我正准备抓取我的树莓派的视频输出,将其传递给kindaadalight环境闪电系统。XBMC的PI播放器,omxplayer,用户OpenMAXAPI用于解码等功能。查看代码给出以下内容:m_omx_tunnel_sched.Initialize(&m_omx_sched,m_omx_sched.GetOutputPort(),&m_omx_render,m_omx_render.GetInputPort());据我所知,这会在视频调度器和渲染器[S]-->[R]之间设置管道。现在我的想法是写一个grabber组件,硬塞进管道[S]-->[G]->[R]。抓取器将从帧缓冲区中提取像素并

c++ - OpenMAX 和 NDK : Where I can get the surface?

我正在编写一个显示视频的应用程序。该应用程序是使用AndroidNDK和JNI编写的。我想使用OpenMAX。在OpenMAX示例中,它从Java检索表面,但我可以从哪里获得要渲染的表面?我只能通过applicationContext获得nativeWindow。例子:voidJava_com_example_nativemedia_NativeMedia_setSurface(JNIEnv*env,jclassclazz,jobjectsurface){theNativeWindow=ANativeWindow_fromSurface(env,surface);}但我没有表面。谢谢

android - 在 Jelly Bean 之前在 Android 中针对 H.264 的硬件加速视频解码

我正在从事一个视频session项目。我们使用软件编解码器对视频帧进行编码和解码,这对于较低的分辨率(最高320p)来说效果很好。我们计划支持我们的应用程序以达到720p的更高分辨率。我开始知道硬件加速可以很好地完成这项工作。由于硬件编解码器api媒体编解码器从JellyBean开始可用,我用它进行编码和解码并且工作正常。但是2.3支持我的应用程序。所以我需要为720p30fps的H.264帧进行硬件加速视频解码。在研究中,我想到了通过修改怯场框架来使用OMX编解码器的想法。我读到H.264的硬件解码器从2.1开始可用,编码器从3.0开始可用。我已经阅读了该站点中提供的许多文章和问题,

《Towards Open Set Deep Networks》:一文搞懂开集识别算法 OpenMax:

一、文章涉及论文源码《TowardsOpenSetDeepNetworks》:https://github.com/abhijitbendale/OSDN《Meta-Recognition:TheTheoryandPracticeofRecognitionScoreAnalysis》:https://github.com/Vastlab/libMR说明:关于OpenMax算法的具体实现,有兴趣的可以备注来意q:3270348868二、基本概念1.激活向量AV:即训练(测试)样本通过神经网络的倒数第二层(全连接层)得到各类样本的激活向量AV.2.均值激活向量MAV:即各类训练样本的AV的均值,如

c++ - GPU 去隔行扫描

我有一个使用OpenGL进行视频处理(例如颜色变换、缩放和平移)的应用程序。我主要使用BGRA(1xGL_BGRA)或YUVA(4xGL_R)视频,即包括alpha。现在我还想做一些高质量的去隔行。我注意到Nvidia通过其“PureVideo”功能支持高质量的硬件加速去隔行扫描。基本上我想要做的是发送一个带有x个颜色channel的交错OpenGL纹理,并得到两个渐进纹理。我的问题是如何最简单、最有效地访问此功能(可能与OpenGL互操作)?我一直在研究DXVA和OpenMax,但两者似乎都侧重于播放(不是去隔行处理,即需要设置帧速率等非相关选项等)和无alpha格式。..

c++ - GPU 去隔行扫描

我有一个使用OpenGL进行视频处理(例如颜色变换、缩放和平移)的应用程序。我主要使用BGRA(1xGL_BGRA)或YUVA(4xGL_R)视频,即包括alpha。现在我还想做一些高质量的去隔行。我注意到Nvidia通过其“PureVideo”功能支持高质量的硬件加速去隔行扫描。基本上我想要做的是发送一个带有x个颜色channel的交错OpenGL纹理,并得到两个渐进纹理。我的问题是如何最简单、最有效地访问此功能(可能与OpenGL互操作)?我一直在研究DXVA和OpenMax,但两者似乎都侧重于播放(不是去隔行处理,即需要设置帧速率等非相关选项等)和无alpha格式。..

c++ - 开发 H264 硬件解码器 Android - Stagefright 或 OpenMax IL?

我正在为android开发H264H/W加速视频解码器。到目前为止,我已经使用了一些库MediaCodec、Stagefright、OpenMaxIL、OpenMaxAL和FFmpeg。经过一番研究,我发现-我找到了一个greatresource将stagefright与FFmpeg一起使用,但我不能使用FFmpeg至于它的许可证,它对分布式软件有很大的限制。(或者可以从这种方法中丢弃FFmpeg吗?)我不能将MediaCodec用作它的JavaAPI,我必须通过C++层的JNI调用它,这相对较慢而且我不允许。我无法使用OpenMaxAL,因为它仅支持通过缓冲队列解码MPEG-2传输流

android - 在 Android 上使用 OpenMAX (IL?) 进行音频/视频解码

许多运行Android的较新硬件平台,特别是NVIDIA的Tegra2,都支持OpenMAX进行媒体加速。如果没有这种支持,今天的设备实际上不可能解码720p视频,但Android支持的解复用器数量非常少。我能够找到的唯一公共(public)API是通过MediaPlayerAndroidSDK中的类。Android源代码树中有多个位置带有OpenMAX然而,相关花絮。在我的设备(SamsungGalaxyTab10.1)上,我可以通过/system/lib中的大量OpenMAX库访问硬件解码器,将我的视频应用程序与这些连接起来会很棒。谁能指出有关实现由OpenMAX提供支持的解码器的

android - 在 Android 中通过 OpenMAX 访问相机

我目前正在尝试弄清楚如何在Android4.0中通过OpenMAX访问相机。文档对我来说还不够,所以我目前正在努力为以下调用检索正确的XADataSource。(*_engine)->CreateMediaRecorder(_engine,&_mediaRecorder,//pRecordernullptr,//pAudioSrcXADataSource*,//pImageVideoSrcXADataSink*,//pDataSnkXAuint32,//numInterfacesconstXAInterfaceID*,//pInterfaceIdsconstXAboolean*,//p