
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
释放内存之后,一定要将对应的指针置空,不然会出现野指针问题。硬解码的兼容性问题,出现编码器无法支持格式,例如相机采集的是NV21,但是编码器只能支持I420,那推出去的视频就会出现色差。弱网情况下,推流端没有适配好的丢帧策略或者说适配了丢帧策略,但是在弱网情况下还是推流较高清的视频,在拉流端播放会出现卡顿。线程设计,是否一定需要这个线程,能不增加就不增加,增加一个线程要申请一定的资源,而且还会有多

(本文基本逻辑:ffmpeg 常用命令介绍 → ffplay 常用命令介绍 → ffprobe 常用命令介绍)从事音视频开发的程序员几乎都应该知道或使用过 FFmpeg。FFmpeg 是一个开源软件,采用 LGPL 或 GPL 许可证(需要注意这里的开源协议,它具有『传染性』,会要求它的使用方也开源)。FFmpeg 由多个组件组成,包含了命令行应用程序以及一系列函数库::用于音视频的编解码、格式转

对于实时音视频通话来说:网络的复杂性、异构性、协议部分不规范性、网络异常,网络错误等各种网络环境被破坏的特性都称之为弱网。弱网环境无法提供高质量的网络传输,对于接收端就是无法收到连续的媒体包,造成声音异常、视频马赛克、花屏、黑屏等现象,对于音视频实时通话来说是非常致命的,直接影响到用户的体验,造成产品质量问题或者客诉问题。NACK 代表否定确认。它是 WebRTC 中的错误恢复机制之一。NACK

我们很难抉择应该给WebRTC应用选哪一款音视频编解码器。VP8?H.264?VP9?还是使用AV1?HEVC呢?*视频编解码器的温馨提示**曾几何时WebRTC世界很简单,只有和G.711。G.711被划掉是因为我不推荐使用它。真的没有理由这样做。后来,作为必须实现的视频编解码器加入。WebRTC进展顺利。之后,谷歌决定在Chrome中引入,将其作为备选编解码器。Mozilla也在Firefox

上一篇文章我们介绍了SurfaceView和TextureView的基础知识点;SurfaceView 以及 TextureView 均继承于 android.view.View,属于 Android 提供的控件体系的一部分。与普通 View 不同,它们都在独立的线程中绘制和渲染。所以,相比于普通的 ImageView 它们的性能更高,因此常被用在对绘制的速率要求比较高的应用场景中,用来解决普通

随着视频直播的发展,很多直播团队可能会遇到视频直播卡顿,频繁出现缓冲标志或者直播画面一卡一卡等情况。究竟是哪些原因造成了视频直播观看的卡顿情况呢?又拍直播云结合实践经验,从设备、视频流、网络这三方面进行解剖分析造成直播卡顿的问题及其解决方法。

在「简单了解 iOS CVPixelBuffer (中)」中,我们了解了颜色空间RGB和YUV的区别以及相关的背景知识,最后对中的相关类型进行了解读。我们已经对有了初步的了解,在这篇文章中,我们将继续聊聊在使用过程中的一些格式转换;RGB和YUV格式转换在很多场景下,我们需要将不同的颜色空间进行转换,以此来解决对应的工程性问题。

欧拉角是由3个角组成,这3个角分别是Yaw、Pitch、Roll。Yaw表示绕Y轴旋转的角度,Pitch表示绕X轴旋转的角度,Roll表示绕Z轴旋转的角度 · Yaw偏移 · Pitch 投掷、倾斜、坠落 · Roll转动。4.开始捕捉:设置捕捉完成代理didOutputMetadataObjects。3.设置元数据的范围(人脸数据、二维码数据、一维码等)5.获取到捕捉人脸相关信息:代理方法中可以
