QT商业播放器

总体架构图

在这里插入图片描述

架构优点:解耦,采用生产者消费者设计模式,各个线程各司其职,通过消息队列高效协作

这个项目是一个基于ijkplayer和ffplayer.c的QT商业播放器,
项目有5部分构成:
前端QT用户界面
后端是集成了ffplayer.c的类--播放的核心逻辑,
中间层有3个模块,
	一是ijkmp类-暴露给前后端向消息队列发消息,
	二是参考ijkplayer实现的单链表消息队列,
	三是用QThread启动的消息循环线程--循环取消息处理业务

下面我来依次说明这些模块:

QT界面

用户界面设计

基本机制

利用QT的信号和槽函数机制,界面事件触发后向消息队列发送消息

  1. 界面元素事件绑定信号
  2. 信号绑定槽函数
  3. 槽函数向消息队列发送对应事件的消息,通知ffplay开始工作
  4. ffplay将视频画面回调到qt界面,声音回调到SDL音频播放流
  5. ffplay内部通过各个信号量控制工作流状态,响应消息只需要调用接口改变ffplay内部的各个信号量即可

元素事件包括:

  • 播放,暂停,停止

  • 快进,快退(按钮seek)

  • 进度条seek

  • 音量控制

  • 文件路径

后端ffplay类

播放器的播放逻辑–一个播放器真正的灵魂部分

主要接口

主要接口就是stream_open(),和stream_close()

  • stream_open负责启动线程和各个队列
  • stream_close负责关闭线程并且回收资源

主要工作流程

  • 解复用线程将从媒体文件中解出来的原始码流包插入到音频包队列和视频包队列

    1.创建解复用上下文结构体(对文件数据的格式化)
    	avformat_alloc_context
    2.打开文件,主要是探测协议类型
    	avformat_open_input
    3.探测媒体类型,可得到当前文件的封装格式,音视频编码参数等信息
    	avformat_find_stream_info
    4.获取音频和视频流标志--为了5划分包
    	av_find_best_stream
    5.【循环】读取媒体数据,得到的是音视频分离后、解码前的数据包,将数据包插入到对应的包队列
    	av_read_frame
    	video_packet_queue.push
    	audio_packet_queue.push
    
  • 2个解码线程从对应包队列中拿到包数据,由对应的解码器解码出帧数据,将音频帧插入到音频帧队列,视频帧插入到视频帧队列

    1.创建解码上下文
    	avcodec_alloc_context3
    2.从解复用上下文中获取码流的信息,并绑定到解码上下文中
    	avcodec_parameters_to_context
    3.配置解码器,根据对应码流的格式配置(codec_id)
    	avcodec_find_decoder
    4.初始化解码器
    	avcodec_open2
    5.【循环】从包队列中获取包,将包丢到解码器,解码出帧数据,加入到帧队列
    	【视频解码线程】
    	video_packet_queue.get
    	avcodec_send_packet
    	avcodec_receive_frame
    	video_frame_queue.push
    	
    	【音频解码线程】
    	audio_packet_queue.get
    	avcodec_send_packet
    	avcodec_receive_frame
    	audio_frame_queue.push
    
  • 播放线程从帧队列中拿到帧数据,经过音视频同步后,视频帧数据回调到qt的Widget容器,绘制出画面;音频数据回调到SDL音频播放函数

    【音频播放线程】
    1.初始化音频设备
    	SDL_OpenAudio
    2.配置数据回调函数
    	【循环】取帧队列数据拷贝到SDL音频播放流中
    	audio_frame_queue.get
    	
    【视频播放线程】
    1.配置QT显示窗口
    	painter.drawImage
    2.获取队列当前Frame,使用ffmpeg的Scale3转换算法将frameYUV格式图像统一转为RGB格式图像,调用QT显示窗口的刷新回调函数
    	video_frame_queue.get
    	视频同步音频:计算音视频pts差,设置阈值,大于渲染上一帧,小于丢帧
    	Scale3
    	video_refresh_callback
    

亮点

缓存队列

这个部分有2部分队列,包队列和帧队列

包队列

包队列是原始码流包的缓存队列

2个帧队列
H264码流包队列
	NALU包:由分割符(00 00 00 01)、头信息、压缩数据构成

AAC码流包队列
	ADTS包:由分隔符(0xFFF)、头信息、压缩数据构成


PacketQueue 是一个链表队列

  • 内存充足情况下:可以不限制将数据包放入队列中,不需要考虑队列的大小。

  • 控制队列大小:如果我们需要控制队列的大小,我们可以使用以下三个变量来限制队列节点的数量:

    size:控制队列中数据包的总大小。

    duration:控制队列中数据包的总播放时间。

    nb_packets:控制队列中数据包的数量。

    在ffplay中,限制所有队列总大小为:15mb
    这是一个经验数值,大概能缓存4k视频2.4s左右
    
    而我在设计的时候直接用的各队列播放时间<2.4s控制即可
    超过就队满,不让存包数据,限制队列大小
    
帧队列

帧队列是解码后的可播放音视频数据

视频帧队列
	每一帧都是YUV格式图像数据

音频帧队列
	每一帧都是PCM采样帧流数据
	

FrameQueue是一个循环数组队列

  • 数组队列适合于事先明确了缓冲区的最⼤容量的情形

  • 避免假队空----定义一个size

  • 写端位于解码线程,读端位于播放线程

  • 设置互斥锁机制—线程安全

在ffplay中:一般设置为音频队列最大9帧,视频队列最大3帧

因为缓存的是解码后的帧,所以队列不能设置过大,过大容易爆内存,通常是缓存一个比较小的值

ijk播放器核心类

里面维护一个消息队列和真正的播放器ffplayer

ijk播放器核心类暴露给前端的接口都是往消息队列中插入消息,不会直接操作ijkplayer。

比如开始播放,暂停,seek等,都是前端调用ijkmp暴露给前端的接口,向消息队列中插入消息,然后在消息循环线程取消息时,在消息分发过滤器中才操作ijkplayer

消息循环子线程

使用QThread启动message_loop消息循环线程

方便利用QT的信号和槽函数机制,qt_ui及时响应后端发给前端的消息

设置消息分发过滤器,处理前端发给后端的消息

设计

在这里插入图片描述

流程

message_loop是QThread启动的具体run函数,里面主要是一个while循环,调用ijkmp的消息分发过滤器获取消息,然后根据返回的消息做响应

而ijkmp的消息分发过滤器会先检测这个消息

  • 如果是前端发向后端的消息,就直接调用ffplay类控制播放,继续取下一个消息;
  • 如果是后端发向前端的消息,就直接返回给message_loop循环线程,让message_loop利用信号和槽函数,控制qt界面的响应

亮点

  • 采用消息分发过滤器模块,只开辟一个线程,同步处理2个端的业务

消息队列

概念

  • 消息队列是连接qt界面和ijk播放器核心之间的桥梁

  • 作用就是传输指令

  • 本质就是结构体单链表队列

消息节点设计
  • 数据域:设计为三个int值,1个任意类型值+任意类型值的释放函数指针

  • 指针域:next指针指向下一个节点

两个队列
  • 工作消息队列:正常请求消息节点,增删

  • 回收消息队列:空消息节点,循环使用

亮点

  • 使用回收消息队列

    使用回收消息队列可以有效提高程序效率
    
    插入消息节点时先从回收消息队列中直接取空节点赋值新消息,如果没有再创建新节点赋值新消息
    
    取节点后,把消息节点清空,插入到回收消息队列中
    

功能实现

播放暂停停止

  • 前端qt界面发送相应消息

  • 在消息循环中,检测到消息,调用ffplay相关接口,改变ffplay类中的控制变量,进而改变线程状态(线程内循环会检测这些变量)

  • 播放暂停是设置了一个暂停标志位,暂停1,播放0

    在播放线程会去检测暂停标志位,如果暂停线程就休眠100ms,然后continue跳过本次循环
    
  • 停止是设置了一个退出标志位,停止1,未停止0

    各个线程都会检测退出标志位,如果退出,break退出循环
    

快进、快退、进度条seek

1.前端发送seek消息,并携带对应seek后的位置-时间戳
2.消息循环检测到后,调用ffplay类相关接口,改变ffplay类中的控制变量
	seek_req--标记位
	seek_pos--seek时间戳
3.在解复用线程中检测seek_req,调用ffmpeg的API seek到对应位置,并且刷新包队列和帧队列,给新的包的serial++
	avformat_seek_file
	serial--标记位,区分不同seek段,播放的时候会检测
4.在解码线程中中检测seek_req,向解码器加入冲刷包,冲刷解码器--因为解码器解码会缓存一些帧(IP帧)
	

音视频同步

音视频同步这块有3种方式,视频同步音频,音频同步视频,加入外部时钟,音视频一块同步外部时钟

因为研究发现用户对于音频更加敏感,所以一般都是让视频去同步音频
我这个项目中采用的就是视频去同步音频

基本思路就是
	视频帧播放快于音频帧播放:睡一会,持续渲染最后一帧
	视频帧播放慢于音频帧播放:丢帧处理

然后还要一个点就是音视频同步流畅的范围是音频时间戳-视频时间戳在-100ms到25ms内,这是一个国际标准,可以拿这个区间作为检测的阈值范围

具体做法
	在视频播放时,检测当前视频帧播放时间戳pts和当前音频帧时间戳的差值diff(diff=音频pts-视频pts)
	如果差值diff在-100ms到25ms内,就说明已经同步
	如果差值diff超过25ms,说明音频快于视频,视频慢了,视频丢帧不渲染
	如果差值diff小于-100ms,说明音频慢于视频,视频快了,持续渲染最后一帧,然后视频线程休眠差值diff的绝对值
Logo

长江两岸老火锅,共聚山城开发者!We Want You!

更多推荐