我需要在Android2.3+上将h264文件解码为YUV。据我所知,我需要与Stagefright沟通,因为这是现在关闭对OpenMAXIL实现的访问后的唯一方式。对于这个问题,我使用了FFmpeg0.10(并尝试了0.9/0.9.1..),用NDK7编译了它(也尝试了NDK6b,结果相同):ffmpegversion0.10Copyright(c)2000-2012theFFmpegdevelopersbuiltonJan28201214:42:37withgcc4.4.3configuration:--target-os=linux--cross-prefix=arm-linux
我必须修改AndroidMediaPlayer的HttpLiveStreaming实现。实现在stagefright库下http://androidxref.com/4.0.4/xref/frameworks/base/media/libstagefright/httplive/LiveDataSource.cpp我认为这些库将编译为libstagefright.so,它应该是Android系统的一部分。我的问题是我是否对该库进行一些更改并编译一个新的libstagefright.so。如果我在我的新应用程序中加载这个新的libstagefright.so并调用媒体播放器,它会使用我的
大家:我是ffmpeg的新手。最近我正在研究将ffmpeg移植到android设备的项目。一开始,我按照互联网上的一些指南以非常正常的方式将ffmpeg编译为共享库(.so文件),将它们加载到我的android应用程序中。效果很好。现在我想让ffmpeg使用libstagefright来完成HW解码。问题是,我可以编译.so库,但是当我启动我的应用程序并加载这些.so库时,总会出现java.lang.UnsatisfiedLinkError:无法加载库:reloc_library[1314]:114找不到'_ZN7android11MediaBufferC1Ej'我在那里呆了几天。以前
我一直在尝试使用libstagefright来解码h264压缩帧。我没有MP4文件,而是想逐帧解码。我一直在探索alink中的示例.本示例使用ffmpeg解析mp4文件。并使用ffmpeg的avcodeccontext设置并找到所需的元数据。现在我想设置kKeyAVCC、kKeyWidth、kKeyHeight、kKeyIsSyncFrame和kKeyTime。我不清楚这些参数中的每一个。那么,我想知道的是是否需要设置所有这些参数?这些参数的目的是什么以及为逐帧解码的元数据设置什么。当我不设置kKeyTime时,omxcodec在读取媒体缓冲区时崩溃。如果我在读取操作上获得成功,我将不
我只是有一个关于如何使用ffmpeg/libavcodec/libstagfright.cpp的问题:我在使用时尝试avcodec_open2(st->codec,codec)ffmpeg设置codec->id为CODEC_ID_H264,codec->name为libstagefright_h264,也就是说我要打开AVCodecff_libstagefright_h264_decoder。但是当Stagefright_init->OMXCodec::Create->configureCodec->initOutputFormat(meta)时,进程就退出了!这是一个bazinga!