简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
linux pc机下的配置:1、首先编译好ffmpeg,主要有ffmpeg、ffserver、ffplay三个主要可执行文件,具体编译这里就不详细说明了2、准备好摄像头,作为输入文件,采集摄像头数据(当然用视频文件代替摄像头也行,不过没啥意思)3、配置ffserver.conf文件,下面是我的配置#基本信息设置Port 8090BindAddress 0.0.0.0
第八部分---FFmpeg移植到Android最近这几天一直在搞FFmpeg的Android移植,我的目标是在Linux上对FFmpeg进行交叉编译最终得到可以push到Android目录下执行的ffmpeg可执行文件。为了达到这个目的,完成对FFmpeg的移植,我可以说是查遍了几乎所有网络文章,试遍了网上的各种方法,但最终还是出现各种各样的错误,真是蛋蛋碎了一地阿!刚刚开始试验的时候
第六部分前几天一直被移植到ARM开发板上的nginx启动的问题困扰,在ARM开发板上启动时不是出现nginx: [emerg] getgrnam("nogroup") failed (2: No such file or directory)就是出现/system/bin/sh: ./nginx: cannot execute - Permission denied使用命令
第三部分这几天实验室搬家,闹腾的,刚刚进入状态。接着调试,客户端浏览器根据hls协议使用http在网页进行观看直播视频,期间遇到一些小问题,记录下。1、昨天测试的时候,遇到一个情况,就是在无论在PC机还是移动端浏览器观看视频的时候,总是出现画面丢失现象,烦人得很。控制台也显示丢包现象严重得很。可以看出,丢包现象到了很严重的地步。看着都糟心。此时使用的命令是:ffmp
第十一部分--延时优化上次测试流媒体服务器的时候,Android系统chrome浏览器测试hls协议时延时35s。虽然由于HLS的特性决定了,使用HLS协议来做视频直播延时很大,但是35s的延时还是不能让人接受,35s足够让人家抢劫完事了。所以要对这个系统进行优化:1、首先要了解HLS延时的机制,也就是为什么会延时,延时主要发生在什么地方。HTTP Live Streaming
第二部分1、昨天已经把网络摄像机的rtsp视频流成功利用FFmpeg和Nginx转换成rtmp流推送到了nginx视频服务器上面,并且通过vlc可以观看到直播视频。今天继续昨天的工作,将rtsp的视频流推送到Nginx上面,客户端根据hls协议使用http在网页进行观看(推送的仍然是rtmp视频流),关于hls,先给一小段简单介绍:HTTP Live Streaming(HLS)是苹果
FFmpeg是相当强大的多媒体编解码框架,在深入分析其源代码之前必须要有基本的多媒体基础知识,否则其源代码会非常晦涩难懂。本文将从介绍一些基本的多媒体只是,主要是为研读ffmpeg源代码做准备,比如一些编解码部分,只有真正了解了多媒体处理的基本流程,研读ffmpeg源代码才能事半功倍。下面分析一下多媒体中最基本最核心的视频解码过程,平常我们从网上下载一部电影或者一首歌曲,那么相应的多媒体播放器