针对DAVINCI DM6446平台,网络上也有很多网友写了V4L2的驱动,但只是解析Montavistalinux-2.6.10 V4L2的原理、结构和函数,深度不够。本文决定把Montavista 的Linux-2.6.18 V4L2好好分析一下,顺便讲解在产品中的应用,满足一些客户提出要求,毕竟V4L2是LINUX一个很重要的视频驱动,适合很多嵌入式芯片平台。本文首先讲解DM6446 DAVINCI视频处理技术的硬件工作原理,然后讲解DM6446 V4L2采集驱动和输出驱动,然后对TI DVSDK2.0里边提供的V4L2的例子进行详细讲解,怎样和驱动配合起来。
第一节 DAVINCI视频处理硬件
有关DM6446 DAVINCI视频处理技术,有两个文档:VPFE sprue38ec.pdf和VPBE sprue37c.pdf,必须要看看的。下图是DAVINCI视频处理技术的框图,VPSS(视频处理子系统)包含VPFE和VPBE,VPFE负责前端视频采集和处理,而VPBE负责后端视频输出,通过OSD和VECN直接输出到DACS(数字转模拟输出口,一共4个通道DAC,通过外围视频编码芯片转换成复合视频CVBS输出到普通电视机)或者直接输出到LCD(DM6446支持RGB24位信号输出到数字LCD屏,4.3寸,7寸屏等)。
图-1 DAVINCI VPSS框图
从图-1可以看出,VPFE系统可以接CCD或者CMOS sensor,同时也可以接视频解码芯片,目前Montavista Linux-2.6.18驱动给出的TI EVM驱动支持MT9T001 CMOS芯片和TVP5146视频解码芯片,VPFE采用RAW模式控制MT9T001 CMOS芯片,数码相机产品基本是这种应用方式,而VPFE采用BT601或BT656的方式控制TVP5146视频解码芯片,很多做安防、机器视觉等的方案都是这种模式,因为这种方式最普通,视频前端买个普通的CCD摄像机,接条视频线和电源,就可以用通过类似TVP5146的芯片采集到图像了,本人也着重介绍这种情况。而图-1里边的Resizer(图像缩放1/4x~4x)、Preview(预览器)、H3A(硬件自动白平衡、自动对焦、自动曝光)、Histogram(直方图)是对采集到的视频进行处理,一般常用到的是Resizer,不需要占用ARM和DSP的资源,对采集到的YUV422数据进行处理,然后才提交给H264等算法进行压缩,这一点可以在dvsdk_2_00_00_22\dvsdk_demos_2_00_00_07\dm6446里边的例子体现到。
VPBE系统可以对处理后的视频(VIDEO)数据或图像(IMAGE)进行处理和输出,一般用户可以通过OSD功能叠加自己的LOGO、字符、时间、坐标、框图等信息,然后通过VENC模块输出到DAC或者LCD接口。
 
DM6446开发攻略:V4L2视频驱动和应用分析(2)
2、下面通过分析v4l2_mmap_loopback.c的源码,从应用层的角度讨论V4L2的原理:
#include <stdio.h>
#include <fcntl.h>
#include <string.h>
#include <getopt.h>
#include <stdlib.h>
。。。。。。。。。。。。。。。。。。。。。。。。。。
#include <fcntl.h>
#include <time.h>
/*以上指向你安装的linux主机/usr/include*/
#include <linux/fb.h>/*指向Montavista linux-2.6.18\include\linux*/
#include <asm/types.h>/*指向linux-2.6.18\include\asm-arm*/
/* Kernel header file, prefix path comes from makefile */
#include <media/davinci/davinci_vpfe.h>/*指向linux-2.6.18 \include\media\davinci*/
#include <video/davincifb_ioctl.h>/*指向linux-2.6.18 \include\video*/
#include <linux/videodev.h>
#include <linux/videodev2.h>
#include <media/davinci/davinci_display.h>
#include <media/davinci/ccdc_davinci.h>
/* LOCAL DEFINES*/
#define CAPTURE_DEVICE "/dev/video0" 文件系统中采集驱动用到的设备节点
#define WIDTH_NTSC 720
#define HEIGHT_NTSC 480 视频NTSC制式
#define WIDTH_PAL 720
#define HEIGHT_PAL 576 视频PAL支持
#define MIN_BUFFERS 2 采集时存放YUV视频数据的缓冲数,做到乒乓BUFFER,
#define UYVY_BLACK 0x10801080无图像的YUV值处理
/* Device parameters */
#define VID0_DEVICE "/dev/video2"
文件系统中DISPLAY输出设备节点(对照内核驱动davinci_display.c)
#define VID1_DEVICE "/dev/video3"文件系统中 DISPLAY输出设备节点
#define OSD0_DEVICE "/dev/fb/0"文件系统中OSD0设备节点
#define OSD1_DEVICE "/dev/fb/2"文件系统中OSD1设备节点
/* Function error codes */
#define SUCCESS 0
#define FAILURE -1
/* Bits per pixel for video window */
#define YUV_422_BPP 16
#define BITMAP_BPP_8 8
#define DISPLAY_INTERFACE "COMPOSITE"显示输出定义复合视频输
#define DISPLAY_MODE_PAL "PAL" 显示输出定义PAL制输出
#define DISPLAY_MODE_NTSC "NTSC" 显示输出定义NTSC制输出
#define round_32(width) ((((width) + 31) / 32) * 32 ) 字节对齐
/* Standards and output information */
#define ATTRIB_MODE "mode"
#define ATTRIB_OUTPUT "output"
#define LOOP_COUNT 500 本例子采集多少帧就停止运行(PAL制每秒25帧)
介绍完v4l2_mmap_loopback.c的前面部分的定义,我们可以开始熟悉V4L2,这里借用网友的描述,顺便加入本人的分析。
Video4linux2(简称V4L2),是linux中关于视频设备的内核驱动。在Linux中,视频设备是设备文件,可以像访问普通文件一样对其进行读写,摄像头在/dev/video0下。
Video4linux2一般操作流程(视频设备):
1. 打开设备文件。 int fd=open(”/dev/video0″,O_RDWR);
2. 取得设备的capability,看看设备具有什么功能,比如是否具有视频输入等。VIDIOC_QUERYCAP,struct v4l2_capability
3. 选择视频输入,一个视频设备可以有多个视频输入。VIDIOC_S_INPUT,struct v4l2_input
4. 设置视频的制式和帧格式,制式包括PAL,NTSC,帧的格式个包括宽度和高度等。
VIDIOC_S_STD,VIDIOC_S_FMT,struct v4l2_std_id,struct v4l2_format
5. 向驱动申请帧缓冲,一般不超过5个。struct v4l2_requestbuffers
6. 将申请到的帧缓冲映射到用户空间,这样就可以直接操作采集到的帧了,而不必去复制。
7. 将申请到的帧缓冲全部入队列,以便存放采集到的数据.VIDIOC_QBUF,struct v4l2_buffer
8. 开始视频的采集。VIDIOC_STREAMON
9. 出队列以取得已采集数据的帧缓冲,取得原始采集数据。VIDIOC_DQBUF
10. 将缓冲重新入队列尾,这样可以循环采集。VIDIOC_QBUF
11. 停止视频的采集。VIDIOC_STREAMOFF
12. 关闭视频设备。close(fd);
常用的结构体(参见linux-2.6.18_pro500/include/linux/include/linux/videodev2.h):
struct v4l2_requestbuffers reqbufs;//向驱动申请帧缓冲的请求,里面包含申请的个数
struct v4l2_capability cap;//这个设备的功能,比如是否是视频输入设备
struct v4l2_input input; //视频输入
struct v4l2_standard std;//视频的制式,比如PAL,NTSC
struct v4l2_format fmt;//帧的格式,比如宽度,高度等
struct v4l2_buffer buf;//代表驱动中的一帧
v4l2_std_id stdid;//视频制式,例如:V4L2_STD_PAL
struct v4l2_queryctrl query;//查询的控制

struct v4l2_control control;//具体控制的值

从main()函数调用vpbe_UE_1(),在vpbe_UE_1()里,可以看到采集流程和显示输出流程。

3、V4L2采集过程
initialize_capture()里初始化采集配置、分配采集内存缓冲、启动开始采集。顺序调用init_capture_device()+set_data_format(),init_capture_buffers(),start_streaming()。

打开视频设备

在V4L2中,视频设备被看做一个文件。使用open函数打开这个设备:

/用非阻塞模式打开采集设备,见init_capture_device()函数,fdCapture在本例子中定义为全局变量,
if ((fdCapture = open(CAPTURE_DEVICE, O_RDWR | O_NONBLOCK, 0)) <= -1) {
printf("InitDevice:open::\n");
return -1; }
如果用阻塞模式打开采集设备,上述代码变为:
if ((fdCapture = open(CAPTURE_DEVICE, O_RDWR, 0)) <= -1) {
printf("InitDevice:open::\n");
return -1; }
关于阻塞模式和非阻塞模式,应用程序能够使用阻塞模式或非阻塞模式打开视频设备,如果使用非阻塞模式调用视频设备,即使尚未捕获到信息,驱动依旧会把缓存(DQBUFF)里的东西返回给应用程序。
设定属性及采集方式
打开视频设备后,可以设置该视频设备的属性,例如裁剪、缩放等。这一步是可选的。在Linux编程中,一般使用ioctl函数来对设备的I/O通道进行管理:
extern int ioctl (int __fd, unsigned long int __request, …) __THROW;
__fd:设备的ID,例如刚才用open函数打开视频通道后返回的fdCapture;
__request:具体的命令标志符。
在进行V4L2开发中,一般会用到以下的命令标志符:
1. VIDIOC_REQBUFS:分配内存
2. VIDIOC_QUERYBUF:把VIDIOC_REQBUFS中分配的数据缓存转换成物理地址
3. VIDIOC_QUERYCAP:查询驱动功能
4. VIDIOC_ENUM_FMT:获取当前驱动支持的视频格式
5. VIDIOC_S_FMT:设置当前驱动的频捕获格式
6. VIDIOC_G_FMT:读取当前驱动的频捕获格式
7. VIDIOC_TRY_FMT:验证当前驱动的显示格式
8. VIDIOC_CROPCAP:查询驱动的修剪能力
9. VIDIOC_S_CROP:设置视频信号的边框
10. VIDIOC_G_CROP:读取视频信号的边框
11. VIDIOC_QBUF:把数据从缓存中读取出来
12. VIDIOC_DQBUF:把数据放回缓存队列
13. VIDIOC_STREAMON:开始视频显示函数
14. VIDIOC_STREAMOFF:结束视频显示函数
15. VIDIOC_QUERYSTD:检查当前视频设备支持的标准,例如PAL或NTSC。
这些IO调用,有些是必须的,有些是可选择的。他们可以从在内核中davinci_vpfe.c 里static int vpfe_doioctl(struct inode *inode, struct file *file,unsigned int cmd, void *arg)函数找到对应关系。
检查当前视频设备支持的标准和设置视频捕获格式
在set_data_format()函数里,检测完视频设备支持的标准后,还需要设定视频捕获格式:PAL制还是NTSC制,采集像素格式UYVY,奇偶场交错方式INTERLACED。
分配内存
接下来可以为视频捕获分配内存:
在init_capture_buffers()里,使用VIDIOC_REQBUFS,我们获取了req.count个缓存,下一步通过调用VIDIOC_QUERYBUF命令来获取这些缓存的地址,然后使用mmap函数转换成应用程序中的绝对地址,最后把这段缓存放入缓存队列:
// 读取缓存
if (ioctl(fdCapture, VIDIOC_QUERYBUF, &buf) == -1) {
return -1;
}
buffers[numBufs].length = buf.length;
// 转换成相对地址
buffers[nIndex].length = buf.length;
buffers[nIndex].start =
mmap(NULL, buf.length, PROT_READ | PROT_WRITE,
MAP_SHARED, fdCapture, buf.m.offset);
启动开始采集
// 放入缓存队列
if (ioctl(fdCapture, VIDIOC_QBUF, &buf) == -1) {
return -1;
}}
/* all done , get set go */
type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
if (-1 == ioctl(fdCapture, VIDIOC_STREAMON, &type)) //
printf("start_streaming:ioctl:VIDIOC_STREAMON:\n");
关于视频采集方式
操作系统一般把系统使用的内存划分成用户空间和内核空间,分别由应用程序管理和操作系统管理。应用程序可以直接访问内存的地址,而内核空间存放的是 供内核访问的代码和数据,用户不能直接访问。v4l2捕获的数据,最初是存放在内核空间的,这意味着用户不能直接访问该段内存,必须通过某些手段来转换地址。
一共有三种视频采集方式:使用read、write方式;内存映射方式和用户指针模式。
read、write方式:在用户空间和内核空间不断拷贝数据,占用了大量用户内存空间,效率不高。
内存映射方式:把设备里的内存映射到应用程序中的内存控件,直接处理设备内存,这是一种有效的方式。上面的mmap函数就是使用这种方式。
用户指针模式:内存片段由应用程序自己分配。这点需要在v4l2_requestbuffers里将memory字段设置成V4L2_MEMORY_USERPTR。
处理采集数据
V4L2有一个数据缓存,存放req.count数量的缓存数据。数据缓存采用FIFO的方式,当应用程序调用缓存数据时,缓存队列将最先采集到的 视频数据缓存送出,并重新采集一张视频数据。这个过程需要用到两个ioctl命令,VIDIOC_DQBUF和VIDIOC_QBUF:
struct v4l2_buffer buf;
memset(&buf,0,sizeof(buf));
buf.type=V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory=V4L2_MEMORY_MMAP;
buf.index=0;
//读取缓存
if (ioctl(fdCapture, VIDIOC_DQBUF, &buf) == -1)
{
return -1;
}
//…………视频处理算法
//重新放入缓存队列
if (ioctl(fdCapture, VIDIOC_QBUF, &buf) == -1) {
return -1;
}
关闭视频设备
使用close函数关闭一个视频设备
close(fdCapture)
4、V4L2显示输出
配置视频显示输出函数init_vid1_device(),初始化和采集差不多,这里就不用多解析,这个显示输出的例子通过DAC口,把采集的图像通过LOOPBACK方式,直接输出到普通电视机或DVD等视频IN的端口里,当然你的板子要有把DM6446 DAC信号通过视频放大器才能接到电视机上。从start_loop()函数里,下面的代码
buf.type = V4L2_BUF_TYPE_VIDEO_CAPTURE;
buf.memory = V4L2_MEMORY_MMAP;
/* determine ready buffer */
if (-1 == ioctl(fdCapture, VIDIOC_DQBUF, &buf)) {
if (EAGAIN == errno)
continue;
printf("StartCameraCaputre:ioctl:VIDIOC_DQBUF\n");
return -1;
}
/******************* V4L2 display ********************/
displaybuffer = get_display_buffer(fd_vid1);
if (NULL == displaybuffer) {
printf("Error in getting the display buffer:VID1\n");
return ret; }
src = buffers[buf.index].start;
dest = displaybuffer;
/* Display image onto requested video window */
for(i=0 ; i < dispheight; i++) {
memcpy(dest, src, disppitch);
src += disppitch;
dest += disppitch;
}
可以看出LOOPBACK方式的操作memcpy(dest, src, disppitch),直接把采集的数据(720x576x2)字节放到视频输出缓冲dest,disppitch=1440,,就是一行UYVY的自己是1440。
第四节 DVSDK2.0有关V4L2的例子分析

有上面的介绍,我们可以深入学习DM6446 DVSDK2.0有关V4L2的例子。dvsdk_2_00_00_22\dvsdk_demos_2_00_00_07\dm6446里有encode,decode,encodedecode的例子,这些例子全部是应用程序,V4L2的例子函数为capture.c和display.c,他们不像第三节介绍的v4l2_mmap_loopback.c直接跟内核davinci_vpfe.c接口函数打交道,而是通过dmai,即dvsdk_2_00_00_22\dmai_1_20_00_06\packages\ti\sdo\dmai\linux目录下的源代码,跟内核davinci_vpfe.c、vpbe_encoder.c打交道,Montavista把内核驱动和VISA调用封装在一起,dvsdk_2_00_00_22\dvsdk_demos_2_00_00_07\dm6446里的例子就是产品级的例子,带有H264、MPEG4、G711这些算法的应用。dvsdk_2_00_00_22\dmai_1_20_00_06\packages\ti\sdo\_dmai\linux里的c文件就是V4L2和内核对接的源文件,好好学习这些例子,对大家做DAVINCI嵌入式产品非常有好处,本人也是从这些例子里学到很多LINUX的东西。

 

http://blog.csdn.net/woxincd/article/details/6371093

http://www.61ic.com/Article/DaVinci/DM644X/201108/36942.html

http://zjbintsystem.blog.51cto.com/964211/464729

http://61ic.com/code/redirect.php?fid=170&tid=74632&goto=nextoldset

http://blog.csdn.net/wilson0913/article/details/4606565

 
Logo

更多推荐