草庐IT

FFmpeg之视频解码

白完就是肥 2023-12-23 原文

这里写自定义目录标题

FFmpeg之视频解码

第一次写CSDN,先熟悉熟悉FFmpeg

常用结构体

1. AVFormatContext;   //为封装上下文;
2. AVCodecContext;    //为解码器上下文;
3. AVStream;				//为存放的是各种流,如:音频流,视频流,字母等;
4. SwsContext;           //为转换上下文,主要用于将原始数据转换成目标格式的数据;如:YUV或RGB;
5. AVCodec;      			//为解码器;
6. AVpacket;      			//为数据包,用于将编码数据发送给解码器的;
7. AVFrame;				//存放一般存放解码后的数据;

常用方法函数

1. av_register_all();  
2. avformat_open_input();  
3. av_find_best_stream( ); 	//找到最你指定的那个流的序号;
4. avformat_find_stream_info( );  //该函数主要用于给每个媒体流(音频/视频)的AVStream结构体赋值
5. avcodec_find_decoder(); //找到音频或视频流对应的编码格式的解码器;
6. avcodec_parameters_to_context();  //将解码器参数辅导解码器上下文中
7. avcodec_open2();   //打开解码器;
8. sws_getContext();  //设置原始数据(YUV)转换成其他格式( RGB )的转换上下文,并返回换上下文。
9. av_read_frame();  //视频是一帧的,音频可以是多帧。
10. avcodec_decode_video2(); //对视频解码
11. sws_scale();   //将一帧原始数据(YUV)转换成我们指定格式 (RGB )。

视频解码的一些基础知识:

  1. 视频流是按一定的顺序排列 I 帧,P 帧 和 B 帧的。

     1. I 帧:为关键帧,它为帧内压缩,解码后为一个完整的画面,这是解码的关键;
     2. P 帧:为前向预测帧,它自己解码是无法完成一帧画面,它的解码需要依赖上一次解码的 I 帧(或P帧);
     3. B 帧:为双向预测内插编码帧,它以前面的I或P帧和后面的P帧为参考帧。
    

  因此,重要性:I 帧 > P 帧 > B 帧。由于不同类型的帧的重要性不同,这意味着我们要按播放连贯的视频,就必须按照一定规定来显示这些帧,这就引来了两个时间概念:解码时间戳(DTS)和显示时间戳(PTS)。
  音频同步的时候,也是以显示时间戳为标准的。

  1. 视频格式(AVPixelFormat)

     	AV_PIX_FMT_YUV420P,
     	AV_PIX_FMT_YUYV422,
     	AV_PIX_FMT_RGB24,
     	AV_PIX_FMT_RGBA,
        AV_PIX_FMT_NONE = -1,
        AV_PIX_FMT_YUV420P,   
        AV_PIX_FMT_YUYV422,  
        AV_PIX_FMT_RGB24,     
        AV_PIX_FMT_BGR24,     
        AV_PIX_FMT_YUV422P, 
        ……  //格式还有很多种,这里不在叙述。
    

代码示例,Qt Creator中运行

	主要思想:用主线程显示视频(即widget.h和.cpp),用MyFFmpeg线程来实现文件的解码;

widget.h

class Widget : public QWidget
{
    Q_OBJECT

public:
    Widget(QWidget *parent = nullptr);
    ~Widget();
    void init_MyFFmpeg();
    void paintEvent(QPaintEvent* e);

private:
    MyFFmpeg *myFFmpeg;
     QPixmap pix;

private:
    Ui::Widget *ui;
};

widget.cpp

Widget::Widget(QWidget *parent)
    : QWidget(parent)
    , ui(new Ui::Widget)
{
    ui->setupUi(this);
    myFFmpeg=new MyFFmpeg();
	//收到myFFmpeg线程对象发来的图片,就绘到widget上
    connect(myFFmpeg,&MyFFmpeg::emitImage,[=](QImage image,int time){
        pix = QPixmap::fromImage(image,Qt::AutoColor);
        qDebug()<<"time:"<<time;
        update(); //更新paintEvent时间
    });
    //启动线程
    myFFmpeg->start();
}

Widget::~Widget(){
    delete ui;
}

void Widget::paintEvent(QPaintEvent* e){
   QPainter painter(this);
   pix.scaled(this->size(),Qt::IgnoreAspectRatio);
   int x = this->width() - pix.width();
   int y = this->height() - pix.height();
   painter.drawPixmap(QPoint(x,y),pix);
}

MyFFmpeg.h文件

 class MyFFmpeg: public QThread
{
    Q_OBJECT
public:
    MyFFmpeg();
    ~MyFFmpeg();
    void  run() override;
    void init_MyFFmpeg();

signals:
	void emitImage(QImage image);
    
private:
    //ffmpeg相关变量预先定义与分配
        AVFormatContext *m_pAVFormatCtx;    //解封装上下文
        SwsContext  *m_pSwsCtx;             //视频转码上下文
        AVCodecContext *avCodecCtx;         //解码上下文

        AVFrame *m_pAVFrame = 0;            // 解码后的原始数据Frame
        AVFrame *m_pAVFrameRGB32 = 0;       // 转换后的目标格式Frame
        AVPacket *m_pAVPacket = 0;          // ffmpag单帧数据包

        int gotPicture = 0;          // 解码时数据是否解码成功
        int outBuffer_size = 0;            // 解码后的数据长度
        uchar *outBuffer = 0;        // 解码后的数据存放缓存区
        char m_errorBuff[1024];      //打开时发生的错误信息

        int m_totalMs;               //总时长
        int m_videoStreamId;           //视频流
      
        int m_fps;                   //每秒的视频帧数
        int m_pts;                   //获得当前解码帧的时间

     
};

MyFFmpeg.cpp文件

MyFFmpeg::MyFFmpeg()
{
	init_MyFFmpeg();
	av_register_all(); 	 
}

void MyFFmpeg::run(){
	   const char* pathUrl="mmm.mkv";
         //打开文件,解封装
         int ret = avformat_open_input(&m_pAVFormatCtx,pathUrl,NULL,NULL);
         if(ret!=0){
             av_strerror(ret,m_errorBuff,sizeof(m_errorBuff));
             qDebug()<<"Open failed: "<<m_errorBuff;
             exit(0);
         }
         m_totalMs = m_pAVFormatCtx->duration / (AV_TIME_BASE);  //获取视频的总时间
         
         //寻找视频流序号
         //  m_videoStreamId = av_find_best_stream(m_pAVFormatCtx,AVMEDIA_TYPE_VIDEO,-1,-1,NULL,0);
         m_videoStreamId = -1;
         for(int i=0;i<m_pAVFormatCtx->nb_streams;i++)
         {
             if(m_pAVFormatCtx->streams[i]->codecpar->codec_type==AVMEDIA_TYPE_VIDEO)
             {
                 m_videoStreamId=i;
                 break;
             }
         }
         if(m_videoStreamId ==-1){
             qDebug()<<"can not find videoStream";
             exit(0);
         }
         
		 //寻找解码器
         AVCodec *avCodec = avcodec_find_decoder( m_pAVFormatCtx->streams[m_videoStreamId]->codecpar->codec_id);
         //avCodecCtx = avcodec_alloc_context3(avCodec);
         avCodecCtx=m_pAVFormatCtx->streams[m_videoStreamId]->codec;
		//打开编码器
         if(avcodec_open2(avCodecCtx,avCodec,NULL)<0){
             qDebug()<<"can not open codec";
             exit(0);
         }
         
		//进行格式转换上下文设置,一般的pix_fmt都是AV_PIX_FMT_YUV420P 
		 avCodecCtx->pix_fmt=AV_PIX_FMT_YUV420P;  //这里我们手动给pix_fmt赋值AV_PIX_FMT_YUV420P, 
		 										 // 如果不赋值,下面sws_getContext就会崩掉,因为没有这句话 pix_fmt=-1;
         m_pSwsCtx = sws_getContext(avCodecCtx->width, avCodecCtx->height, avCodecCtx->pix_fmt,
                                   avCodecCtx->width, avCodecCtx->height, AV_PIX_FMT_RGBA, SWS_FAST_BILINEAR,
                                   NULL, NULL, NULL);
		 outBuffer_size = av_image_get_buffer_size(AV_PIX_FMT_RGBA, avCodecCtx->width, avCodecCtx->height,1);
         outBuffer=(unsigned char*)malloc(outBuffer_size);
         
  		//将m_pAVFrameRGB32赋值, 并将m_pAVFrameRGB32的data变量指向outBuffer
         av_image_fill_arrays(m_pAVFrameRGB32->data,m_pAVFrameRGB32->linesize, outBuffer,
                             AV_PIX_FMT_RGBA, avCodecCtx->width, avCodecCtx->height, 1);
		 
		 //开始逐帧解码视频和音频,这里我们之解码视频
         while(av_read_frame(m_pAVFormatCtx, m_pAVPacket)>=0)
         {
             //找到视频流
             if(m_pAVPacket->stream_index==m_videoStreamId){
                 if(avcodec_decode_video2(avCodecCtx, m_pAVFrame, &gotPicture, m_pAVPacket)<0){
                     qDebug()<<"解码视频失败";
                     exit(0);
                 }
                 if(gotPicture){
                 //对原始数据进行格式转化
                 sws_scale(m_pSwsCtx, (const uint8_t* const *)m_pAVFrame->data, m_pAVFrame->linesize,0,
                             avCodecCtx->height, m_pAVFrameRGB32->data, m_pAVFrameRGB32->linesize);
                             
                 //接下来就是将m_pAVFrameRGB32上的数据在设备上显示出来。
                 QImage imageshow(*m_pAVFrameRGB32->data, avCodecCtx->width, avCodecCtx->height,
                                 QImage::Format_RGB32);
                  //显示当前帧的时间,并转化成秒
                  m_dts=m_pAVFrame->pts * av_q2d(m_pAVFormatCtx->streams[m_videoStreamId]->time_base);
                  //将线程中解码好的图片和显示时间发送到主线程中
                  emitImage(imageshow, m_dts);
                  QThread::msleep(30);//延时使得画面播放流畅
               }

             }
              av_packet_unref(m_pAVPacket); //引用计数减1;
         }
	//正常来讲这里是要执行下面着几句话的,但是释放内存的,这个线程就会出现冲突,所以我们将这些话放在了析构函数中
	 //avformat_free_context(m_pAVFormatCtx);
     //avcodec_free_context(&avCodecCtx);
     //av_frame_free(&m_pAVFrame);
     //av_frame_free(&m_pAVFrameRGB32);
     //av_packet_free(&m_pAVPacket);
     //qDebug()<<"音频解码结束";
}

MyFFmpeg::~MyFFmpeg()
{ //释放内存
     avformat_free_context(m_pAVFormatCtx);
     avcodec_free_context(&avCodecCtx);
     av_frame_free(&m_pAVFrame);
     av_frame_free(&m_pAVFrameRGB32);
     av_packet_free(&m_pAVPacket);
     qDebug()<<"音频解码结束";
}

void MyFFmpeg::init_MyFFmpeg()
{
	m_pAVFormatCtx = avformat_alloc_context();	 
    m_pAVFrame = av_frame_alloc();
    m_pAVPacket = av_packet_alloc();
    m_pAVFrameRGB32 = av_frame_alloc();    
}    
//

总结一下,这里也才了一个坑,就是

问题就是sws_getContext()中, avCodecCtx->pix_fmt=-1,导致系统崩溃,

avCodecCtx->pix_fmt=AV_PIX_FMT_YUV420P;  //必需在这里可以赋值 AV_PIX_FMT_YUV420P
 m_pSwsCtx = sws_getContext(avCodecCtx->width, avCodecCtx->height, avCodecCtx->pix_fmt,
                                   avCodecCtx->width, avCodecCtx->height, AV_PIX_FMT_RGBA, SWS_FAST_BILINEAR,
                                   NULL, NULL, NULL);
	第一次写博客,参考了别人的一些经验,然后自己整理加自己的理解,主要是给自己记笔记,当然也供小伙伴们参考,如果有错误,请谅解!!!

有关FFmpeg之视频解码的更多相关文章

  1. 动漫制作技巧如何制作动漫视频 - 2

    动漫制作技巧是很多新人想了解的问题,今天小编就来解答与大家分享一下动漫制作流程,为了帮助有兴趣的同学理解,大多数人会选择动漫培训机构,那么今天小编就带大家来看看动漫制作要掌握哪些技巧?一、动漫作品首先完成草图设计和原型制作。设计草图要有目的、有对象、有步骤、要形象、要简单、符合实际。设计图要一致性,以保证制作的顺利进行。二、原型制作是根据设计图纸和制作材料,可以是手绘也可以是3d软件创建。在此步骤中,要注意的问题是色彩和平面布局。三、动漫制作制作完成后,加工成型。完成不同的表现形式后,就要对设计稿进行加工处理,使加工的难易度降低,并得到一些基本准确的概念,以便于后续的大样、准确的尺寸制定。四、

  2. python ffmpeg 使用 pyav 转换 一组图像 到 视频 - 2

    2022/8/4更新支持加入水印水印必须包含透明图像,并且水印图像大小要等于原图像的大小pythonconvert_image_to_video.py-f30-mwatermark.pngim_dirout.mkv2022/6/21更新让命令行参数更加易用新的命令行使用方法pythonconvert_image_to_video.py-f30im_dirout.mkvFFMPEG命令行转换一组JPG图像到视频时,是将这组图像视为MJPG流。我需要转换一组PNG图像到视频,FFMPEG就不认了。pyav内置了ffmpeg库,不需要系统带有ffmpeg工具因此我使用ffmpeg的python包装p

  3. TimeSformer:抛弃CNN的Transformer视频理解框架 - 2

    Transformers开始在视频识别领域的“猪突猛进”,各种改进和魔改层出不穷。由此作者将开启VideoTransformer系列的讲解,本篇主要介绍了FBAI团队的TimeSformer,这也是第一篇使用纯Transformer结构在视频识别上的文章。如果觉得有用,就请点赞、收藏、关注!paper:https://arxiv.org/abs/2102.05095code(offical):https://github.com/facebookresearch/TimeSformeraccept:ICML2021author:FacebookAI一、前言Transformers(VIT)在图

  4. ruby - 无法在 Ruby 中将 ffmpeg 作为子进程运行 - 2

    我正在尝试使用以下代码通过将ffmpeg实用程序作为子进程运行并获取其输出并解析它来确定视频分辨率:IO.popen'ffmpeg-i'+path_to_filedo|ffmpegIO|#myparsegoeshereend...但是ffmpeg输出仍然连接到标准输出并且ffmepgIO.readlines是空的。ffmpeg实用程序是否需要一些特殊处理?或者还有其他方法可以获得ffmpeg输出吗?我在WinXP和FedoraLinux下测试了这段代码-结果是一样的。 最佳答案 要跟进mouviciel的评论,您需要使用类似pope

  5. ruby - 如何更改此正则表达式以从未指定 v 参数的 Youtube URL 获取 Youtube 视频 ID? - 2

    目前我正在使用这个正则表达式从YoutubeURL中提取视频ID:url.match(/v=([^&]*)/)[1]我怎样才能改变它,以便它也可以从这个没有v参数的YoutubeURL获取视频ID:http://www.youtube.com/user/SHAYTARDS#p/u/9/Xc81AajGUMU感谢阅读。编辑:我正在使用ruby​​1.8.7 最佳答案 对于Ruby1.8.7,这就可以了。url_1='http://www.youtube.com/watch?v=8WVTOUh53QY&feature=feedf'url

  6. ruby-on-rails - JSON解码参数问题 - 2

    我有一个使用postgresql的Rails4应用程序。我还有一个backbone.js应用程序,可将JSON推送到Rails4应用程序。这是我的Controller:defcreate@product=Product.new(ActiveSupport::JSON.decodeproduct_params)respond_todo|format|if@product.saveformat.json{renderaction:'show',status::created,location:@product}elseformat.json{renderjson:@product.erro

  7. ruby - 如何使用 bash 命令或 Ruby 使用 ffmpeg 将 mp4 文件批量转换为 ogg - 2

    我运行的是OSX,对视频转换一无所知。但我有大约200个视频都是mp4格式,无法在Firefox中播放。我需要将它们转换为ogg才能使用html5视频标签。这些文件位于一个文件夹结构中,这使得一次一个地处理一个文件变得困难。我希望bash命令或Ruby命令遍历所有子文件夹并找到所有.mp4并转换它们。我找到了一份关于如何使用Google执行此操作的引用资料:http://athmasagar.wordpress.com/2011/05/12/a-bash-script-to-convert-mp4-files-to-oggogv/#!/bin/bashforfin$(ls*mp4|se

  8. 续集来了丨UI自动化测试(二):带视频,实在RPA高效进行web项目UI自动化测试 - 2

    一、什么是web项目ui自动化测试?通过测试工具模拟人为操控浏览器,使软件按照测试人员的预定计划自动执行测试的一种方式,可以完成许多手工测试无法完成或者不易实现的繁琐工作。正确使用自动化测试,可以更全面的对软件进行测试,从而提高软件质量进而缩短迭代周期。二、构建测试用例的“九部曲”(一)创建流程包划分功能模块日常测试活动中,都会根据功能模块进行拆分,所以在设计器中我们可以通过创建流程包的方式来拆分需要测试的功能模块,如下图中操作创建一个电脑流程包并且取名为对应的功能模块名称,如果有多个功能模块就创建多个对应的流程包,实在RPA设计器有易用的图形可视化界面,方便管理较多的功能模块。(二)在流程包

  9. Java调用ffmpeg处理视频,并记录下遇到的坑 - 2

    目录需求基于JavaCV跨平台执行ffmpeg命令[^1]坑一内存不足坑二多个ffmpeg进程并行导致IO负载大,进而导致ioerror?坑三使用Java操作ffmpeg时,有时会卡死坑四Process的waitFor死锁问题及解决办法需求给透明背景的视频自动叠加一张背景图片基于JavaCV跨平台执行ffmpeg命令1我测试发现的本需求的最小依赖:dependency>groupId>org.bytedecogroupId>artifactId>ffmpeg-platform-gplartifactId>version>5.0-1.5.7version>dependency>核心代码:Stri

  10. 基于python的短视频智能推荐/django的影视网站/视频推荐系统 - 2

    摘要本论文主要论述了如何使用Python技术开发一个短视频智能推荐,本系统将严格按照软件开发流程进行各个阶段的工作,采用B/S架构,面向对象编程思想进行项目开发。在引言中,作者将论述短视频智能推荐的当前背景以及系统开发的目的,后续章节将严格按照软件开发流程,对系统进行各个阶段分析设计。 短视频智能推荐的主要使用者分为管理员和用户,实现功能包括管理员:首页、个人中心、用户管理、热门视频管理、用户上传管理、系统管理,用户:首页、个人中心、用户上传管理、我的收藏管理,前台首页;首页、热门视频、用户上传、公告信息、个人中心、后台管理等功能。由于本网站的功能模块设计比较全面,所以使得整个短视频智能推荐信

随机推荐