如何通过人工神经网络实现图像识别

人工神经网络(ArtificialNeuralNetworks)(简称ANN)系统从20世纪40年代末诞生至今仅短短半个多世纪,但由于他具有信息的分布存储、并行处理以及自学习能力等优点,已经在信息处理、模式识别、智能控制及系统建模等领域得到越来越广泛的应用。

尤其是基于误差反向传播(ErrorBackPropagation)算法的多层前馈网络(Multiple-LayerFeedforwardNetwork)(简称BP网络),可以以任意精度逼近任意的连续函数,所以广泛应用于非线性建模、函数逼近、模式分类等方面。

目标识别是模式识别领域的一项传统的课题,这是因为目标识别不是一个孤立的问题,而是模式识别领域中大多数课题都会遇到的基本问题,并且在不同的课题中,由于具体的条件不同,解决的方法也不尽相同,因而目标识别的研究仍具有理论和实践意义。

这里讨论的是将要识别的目标物体用成像头(红外或可见光等)摄入后形成的图像信号序列送入计算机,用神经网络识别图像的问题。

一、BP神经网络BP网络是采用Widrow-Hoff学习算法和非线性可微转移函数的多层网络。一个典型的BP网络采用的是梯度下降算法,也就是Widrow-Hoff算法所规定的。

backpropagation就是指的为非线性多层网络计算梯度的方法。一个典型的BP网络结构如图所示。我们将它用向量图表示如下图所示。

其中:对于第k个模式对,输出层单元的j的加权输入为该单元的实际输出为而隐含层单元i的加权输入为该单元的实际输出为函数f为可微分递减函数其算法描述如下:(1)初始化网络及学习参数,如设置网络初始权矩阵、学习因子等。

(2)提供训练模式,训练网络,直到满足学习要求。(3)前向传播过程:对给定训练模式输入,计算网络的输出模式,并与期望模式比较,若有误差,则执行(4);否则,返回(2)。

(4)后向传播过程:a.计算同一层单元的误差;b.修正权值和阈值;c.返回(2)二、BP网络隐层个数的选择对于含有一个隐层的三层BP网络可以实现输入到输出的任何非线性映射。

增加网络隐层数可以降低误差,提高精度,但同时也使网络复杂化,增加网络的训练时间。误差精度的提高也可以通过增加隐层结点数来实现。一般情况下,应优先考虑增加隐含层的结点数。

三、隐含层神经元个数的选择当用神经网络实现网络映射时,隐含层神经元个数直接影响着神经网络的学习能力和归纳能力。

隐含层神经元数目较少时,网络每次学习的时间较短,但有可能因为学习不足导致网络无法记住全部学习内容;隐含层神经元数目较大时,学习能力增强,网络每次学习的时间较长,网络的存储容量随之变大,导致网络对未知输入的归纳能力下降,因为对隐含层神经元个数的选择尚无理论上的指导,一般凭经验确定。

四、神经网络图像识别系统人工神经网络方法实现模式识别,可处理一些环境信息十分复杂,背景知识不清楚,推理规则不明确的问题,允许样品有较大的缺损、畸变,神经网络方法的缺点是其模型在不断丰富完善中,目前能识别的模式类还不够多,神经网络方法允许样品有较大的缺损和畸变,其运行速度快,自适应性能好,具有较高的分辨率。

神经网络的图像识别系统是神经网络模式识别系统的一种,原理是一致的。一般神经网络图像识别系统由预处理,特征提取和神经网络分类器组成。预处理就是将原始数据中的无用信息删除,平滑,二值化和进行幅度归一化等。

神经网络图像识别系统中的特征提取部分不一定存在,这样就分为两大类:①有特征提取部分的:这一类系统实际上是传统方法与神经网络方法技术的结合,这种方法可以充分利用人的经验来获取模式特征以及神经网络分类能力来识别目标图像。

特征提取必须能反应整个图像的特征。但它的抗干扰能力不如第2类。

②无特征提取部分的:省去特征抽取,整副图像直接作为神经网络的输入,这种方式下,系统的神经网络结构的复杂度大大增加了,输入模式维数的增加导致了网络规模的庞大。

此外,神经网络结构需要完全自己消除模式变形的影响。但是网络的抗干扰性能好,识别率高。当BP网用于分类时,首先要选择各类的样本进行训练,每类样本的个数要近似相等。

其原因在于一方面防止训练后网络对样本多的类别响应过于敏感,而对样本数少的类别不敏感。另一方面可以大幅度提高训练速度,避免网络陷入局部最小点。

由于BP网络不具有不变识别的能力,所以要使网络对模式的平移、旋转、伸缩具有不变性,要尽可能选择各种可能情况的样本。

例如要选择不同姿态、不同方位、不同角度、不同背景等有代表性的样本,这样可以保证网络有较高的识别率。

构造神经网络分类器首先要选择适当的网络结构:神经网络分类器的输入就是图像的特征向量;神经网络分类器的输出节点应该是类别数。隐层数要选好,每层神经元数要合适,目前有很多采用一层隐层的网络结构。

然后要选择适当的学习算法,这样才会有很好的识别效果。

在学习阶段应该用大量的样本进行训练学习,通过样本的大量学习对神经网络的各层网络的连接权值进行修正,使其对样本有正确的识别结果,这就像人记数字一样,网络中的神经元就像是人脑细胞,权值的改变就像是人脑细胞的相互作用的改变,神经网络在样本学习中就像人记数字一样,学习样本时的网络权值调整就相当于人记住各个数字的形象,网络权值就是网络记住的内容,网络学习阶段就像人由不认识数字到认识数字反复学习过程是一样的。

神经网络是按整个特征向量的整体来记忆图像的,只要大多数特征符合曾学习过的样本就可识别为同一类别,所以当样本存在较大噪声时神经网络分类器仍可正确识别。

在图像识别阶段,只要将图像的点阵向量作为神经网络分类器的输入,经过网络的计算,分类器的输出就是识别结果。五、仿真实验1、实验对象本实验用MATLAB完成了对神经网络的训练和图像识别模拟。

从实验数据库中选择0~9这十个数字的BMP格式的目标图像。图像大小为16×8像素,每个目标图像分别加10%、20%、30%、40%、50%大小的随机噪声,共产生60个图像样本。

将样本分为两个部分,一部分用于训练,另一部分用于测试。实验中用于训练的样本为40个,用于测试的样本为20个。随机噪声调用函数randn(m,n)产生。

2、网络结构本试验采用三层的BP网络,输入层神经元个数等于样本图像的象素个数16×8个。隐含层选24个神经元,这是在试验中试出的较理想的隐层结点数。

输出层神经元个数就是要识别的模式数目,此例中有10个模式,所以输出层神经元选择10个,10个神经元与10个模式一一对应。

3、基于MATLAB语言的网络训练与仿真建立并初始化网络% ================S1 = 24;% 隐层神经元数目S1 选为24[R,Q] = size(numdata);[S2,Q] = size(targets);F = numdata;P=double(F);net = newff(minmax(P),[S1 S2],{'logsig''logsig'},'traingda','learngdm')这里numdata为训练样本矩阵,大小为128×40,targets为对应的目标输出矩阵,大小为10×40。

newff(PR,[S1S2…SN],{TF1TF2…TFN},BTF,BLF,PF)为MATLAB函数库中建立一个N层前向BP网络的函数,函数的自变量PR表示网络输入矢量取值范围的矩阵[Pminmax];S1~SN为各层神经元的个数;TF1~TFN用于指定各层神经元的传递函数;BTF用于指定网络的训练函数;BLF用于指定权值和阀值的学习函数;PF用于指定网络的性能函数,缺省值为‘mse’。

设置训练参数net.performFcn = 'sse'; %平方和误差性能函数 = 0.1; %平方和误差目标 = 20; %进程显示频率net.trainParam.epochs = 5000;%最大训练步数 = 0.95; %动量常数网络训练net=init(net);%初始化网络[net,tr] = train(net,P,T);%网络训练对训练好的网络进行仿真D=sim(net,P);A = sim(net,B);B为测试样本向量集,128×20的点阵。

D为网络对训练样本的识别结果,A为测试样本的网络识别结果。实验结果表明:网络对训练样本和对测试样本的识别率均为100%。如图为64579五个数字添加50%随机噪声后网络的识别结果。

六、总结从上述的试验中已经可以看出,采用神经网络识别是切实可行的,给出的例子只是简单的数字识别实验,要想在网络模式下识别复杂的目标图像则需要降低网络规模,增加识别能力,原理是一样的。

谷歌人工智能写作项目:神经网络伪原创

图像融合的层次

一般情况下,图像融合由低到高分为三个层次:数据级融合、特征级融合、决策级融合写作猫

数据级融合也称像素级融合,是指直接对传感器采集来得数据进行处理而获得融合图像的过程,它是高层次图像融合的基础,也是目前图像融合研究的重点之一。

这种融合的优点是保持尽可能多得现场原始数据,提供其它融合层次所不能提供的细微信息。

像素级融合中有空间域算法和变换域算法,空间域算法中又有多种融合规则方法,如逻辑滤波法,灰度加权平均法,对比调制法等;变换域中又有金字塔分解融合法,小波变换法。其中的小波变换是当前最重要,最常用的方法。

在特征级融合中,保证不同图像包含信息的特征,如红外光对于对象热量的表征,可见光对于对象亮度的表征等等。决策级融合主要在于主观的要求,同样也有一些规则,如贝叶斯法,D-S证据法和表决法等。

融合算法常结合图像的平均值、熵值、标准偏差、平均梯度;平均梯度反映了图像中的微小细节反差与纹理变化特征,同时也反映了图像的清晰度。

目前对图像融合存在两个问题:最佳小波基函数的选取和最佳小波分解层数的选取。

数据处理

4.3.1数据源情况4.3.1.1卫星影像数据情况本项目数据源是由国土资源部信息中心提供的2005~2007年SPOT5_2.5m分辨率影像数据。

覆盖工作区的SPOT5卫星影像数据共计79景(图4-2),所接收影像均有4%以上的重叠区域;影像信息丰富,无明显噪声、斑点和坏线;云、雪覆盖量均小于10%,且未覆盖城乡结合部等重点地区;东部平原地区大部分影像覆盖有程度不同的雾或霾,但整体地类信息能够区分;影像数据接收侧视角一般小于15°,平原地区不超过25°,山区不超过20°,基本满足技术规范对影像接收的要求。

图4-2河南省SPOT5影像数据分布示意图图4-3影像接收时间分布由于本次SPOT5卫星影像接收时间跨度大,时相接收差异大,79景影像多集中于春季和秋季(图4-3),但部分影像由于接收时间不是河南地区最佳季节,存在着这样或那样的问题,见表4-1:表4-1影像数据接收信息及数据质量评述表续表4.3.1.2DEM数据情况覆盖河南全省的1∶5万数字高程模型(DEM)共计464幅。

首先,对DEM是否齐全及DEM的现势性等进行了全面检查;其次,对相邻分幅DEM是否有重叠区域以及重叠区域的高程是否一致、接边后是否出现裂隙现象等信息进行了检查;第三,项目组对每幅DEM是否有完整的元数据以及对数据的地理基础、精度、格网尺寸等信息是否齐全等进行了全面检查。

由于1∶5万DEM原始数据是GRID标准格式,数学基础为1980年西安坐标系,1985年国家高程基准,6°分带。

鉴于以上数据格式和项目实施方案要求,项目组对涉及工作区的464幅DEM,分别按照19°带和20°带进行镶嵌及坐标系转换,之后再进行拼接、换带及投影转换处理,得到覆盖河南全省的、满足对项目区影像进行正射校正需求的、中央经线为114°、1954北京坐标系、1985年国家高程基准的河南省1∶5万DE(M图4-4)。

图4-4河南省1∶5万DEM经过对拼接好的DEM进行全面检查,本项目使用的DEM数据覆盖河南全省,不存在缺失、黑边等现象,基本满足本项目影像数据正射校正的需要。

4.3.2数据配准目前影像配准技术大致分为两大类,基于灰度的方法和基于特征的方法。大多数基于灰度的方法采用互相关技术或傅立叶变换技术来实现。

影像配准采用的是ERDAS9.1中的自动配准模块(AutoSync)。在自动检测结束后,将其在参考图像上寻找出来同样需要很大的工作量。

在不能完全自动实现匹配的情况下,如果能够大致计算出需要寻找和精确调整标注的区域,同样能够减少很大工作量。通过使用多项式粗略计算出两张影像的对应关系就可以解决这一问题。

根据ERDAS系统要求,我们最少需要3个点就可以在两张卫星影像间建立一个粗略的对应关系。

使用至少3个点建立起正算多项式模型后,便可以将自动检测出来的控制点迅速对应到参考影像上,只需要在很小的范围内调整就可以精确标注出其在参考影像上的位置。

图4-5左侧为原始影像上自动检测点,右侧为参考影像上粗定位点,需要进行调整。

图4-5配准虽然计算机的引入可以大量节约劳动,但是因为技术所限,并不能解决矫正和配准所有环节的全部问题,从而将测绘工作者彻底解放出来。

本次项目生产过程中,针对SPOT5_10m多光谱数据重采样成间隔为2.5m,重采样方法采用双线性内插法。

以景为配准单元,以SPOT5_2.5m全色数据为配准基础,将SPOT5多光谱数据与之配准。

随机选择配准后全色与多光谱数据上的同名点,要求配准误差平原和丘陵地区不超过0.5个像元,山区适当放宽至1个像元。

配准控制点文件命名使用“景号+MULTI和PAN”,如“287267MULTI”。配准文件命名使用“景号+MATCH”,如“287267MATCH”。

影像配准采用的是ERDAS9.1中的自动配准模块(AutoSync)。

首先,在单景影像的四角部位手动选取四个配准控制同名点,然后由软件生成自动配准控制点,剔除其中误差较大的控制点后,进行自动配准(图4-6)。

配准完成后,采用软件提供的“拉窗帘”的方式对整景影像自上而下、自左至右进行配准精度检查(图4-7)。

总结配准的工作,可以看到基本上分为如下几步:①标注至少3个粗匹配控制点;②设置检测参数;③进行自动检测;④人工调整和保存控制点;⑤进行配准。

其中第4步仍然需要人工参与,主要的问题在于两点:一是精度是否真正是人感官上的特征点方面存在问题;二是参考图像上的控制点仅仅是粗略对应标注,人工无法手动调整至精确对应位置,因此,暂时的配准工作仅仅部分减轻了人工工作量,但不可能完全由计算机完成配准工作。

图4-6影像配准图4-7影像配准精度“拉窗帘”检查4.3.3数据融合4.3.3.1融合前数据的预处理获取完整项目区的卫星影像数据时,由于接收时间跨度较大,数据时相差别较大,加上空中云、雾或霾的干扰以及地面光照不均匀等因素,造成景与景之间的影像光谱和纹理特征差别较大。

为使影像纹理清晰,细节突出,提高目视解译精度等,在数据融合前必须对数据进行预处理。SPOT5全色波段数据处理的目的是增强局部灰度反差、突出纹理、加强纹理能量和通过滤波来提高纹理细节。

(1)线性变换。经过线性拉伸处理的影像数据,既增强局部灰度反差又保持原始灰度间的相对关系。

图4-8线性变换设A1、A2为输入影像的嵌位控制值,B1、B2为变换后影像最低、最高亮度值(图4-8),输入影像的亮度值A1~A2被拉伸为B1~B2范围,其中输入亮度0~A1及A2~255分别被变换为B1、B2,如果赋值B1=0、B2=255,则拉大了输入影像的动态范围,从而反差得到增强,保持了输入影像灰度间的线性关系。

通过线性拉伸将位移A1变换为0,而将A2变为255;这样既没有改变A1到A2之间灰度值的相对关系,又扩展了直方图的动态范围,从而增强影像结构的细微突变信息。(2)纹理增强。

纹理能量增强目前主要靠高通滤波来实现,在空域增强中滤波器选择是关键。不同影像地貌、地物选择的滤波核各异。

一般地,在地形高起伏地区,地理单元比较宏观,采用的滤波器一般较大,能够反映地理单元的宏观特点,选择较小的滤波核会破坏整体的地貌外形。

在地理单元分布细碎,地貌细腻,选择滤波器相对应较小,否则无法表现细碎的纹理结构。在纹理能量增强时应该避免增强过剩,否则影像细节会过于饱和,使纹理丧失,达不到增强细节的目的。

以下滤波核是本次用到的边缘增强滤波算子,应用效果比较好。如图4-9所示。图4-9滤波增强(3)多光谱数据处理。在融合影像中,多光谱数据的贡献是其光谱信息。

融合前主要以色彩增强为主,调整亮度、色度、饱和度,拉开不同地类之间的色彩反差,对局部的纹理要求不高,有时为了保证光谱色彩,还允许削弱部分纹理信息。

4.3.3.2影像融合目前用于多源遥感数据融合的方法很多,从技术层次来分,可以包括像元级融合、特征级融合和决策级融合三个层次。

像元级融合有HIS变换、主分量变换、假彩色合成、小波变换、加权融合等方法;特征级融合有Bayes、决策法、神经网络法、比值运算、聚类分析等方法;决策级融合有基于知识的融合、神经网络、滤波融合等方法。

从融合算法上分,可分为对图像直接进行代数运算的方法,如加权融合法、乘积融合法、Brovey变换融合法等;第二种是基于各种空间变换的方法,如HIS变换融合法、PCA变换融合法、Lab变换融合法等;第三种是基于金字塔式分解和重建的融合方法,如拉普拉斯金字塔融合法、小波变换融合法。

本项目所使用数据为SPOT5数据,缺少蓝波段多光谱,对数据采用了自然色模拟方法,在土地利用资源调查中,多光谱信息可以突出地反映土地利用类型的要素信息,提高影像的可判读性,便于从图形、纹理特征及光谱特征进行综合判别分析。

一般遥感卫星多光谱传感器波谱范围覆盖整个可见光部分,即蓝、绿、红波段。而SPOT系列遥感卫星其多光谱覆盖范围在可见光部分仅从绿到红波段,缺少蓝波段。

在利用遥感卫星影像进行土地利用资源调查时,多光谱信息要求必须以人眼可见的自然色表达,而不允许用伪彩色和红外彩色模拟,以便于非遥感测绘人员的判读与实地调查。

对于通常的SPOT系列遥感卫星的自然色模拟方法,往往仅靠不同波段组合,以人眼目视判别、感知来调整色调。

作业人员的先验知识作色调调整,作业人员经验欠缺时,色调调校失真较大;二是标准难以定量统一,不同调校时间、人员,不同景影像的拼接,由于感知的差异都难以达到同一或近似的标准。

通过分析全省SPOT5数据特征,本次影像融合处理主要采用了乘积变换融合和Andorre融合。

Andorre融合采用的是视宝公司提供的Andorre融合方法,具体步骤为:步骤1对全色影像先做正态化处理。等价于Wallis滤波及增强局部(纹理增强)与全局对比度。

步骤2按下面公式融合(P是正态化处理后的全色影像,B1是绿波段,B2是红波段,B3是近红外波段)。

ERDAS中模块计算公式:§公式一(蓝通道):§公式二(绿通道):§公式三(红通道):步骤3按下面公式完成伪自然色转换:ERDAS中模块计算公式:§公式一(红通道):§公式二(绿通道):§公式三(蓝通道):步骤4对步骤3生成的各个通道执行直方图拉伸处理。

通常,线性直方图拉伸可以满足这种彩色影像的调整,需要根据影像目视效果定义阈值。阈值的选择应该避免在平衡其他颜色造成的像素过饱和。或在Photoshop中调整影像色调、亮度及对比度等直至满足要求。

通过ERDAS中Model实现其算法(图4-10)。4.3.3.3融合影像后处理后处理主要采用以下5种方法:(1)直方图调整。

对反差较低、亮度偏暗的融合影像,调整输入输出范围,改变反差系数进行线性拉伸,使其各色直方图达到接近正态分布。

输出范围一般都定为0~255,而在输入范围的选择中,对低亮度端的截去应慎重,可以消除部分噪声。(2)USM锐化。通过变化阈值、半径、锐化程度增强地物边缘特征。

注意阈值和半径的设定值不宜过大,锐化程度可根据不同地区影像特点适当选取。通过软件的预览功能可以判断参数选择得是否合适。

城乡结合部、居民点、道路和耕地边界是需要重点突出的地物,必须保证清晰可辨,进一步改善总体效果。(3)彩色平衡。经过融合运算后,影像或多或少会带有一定程度的偏色,需要通过调整彩色平衡加以改正。

(4)色度饱和度调整。由于SPOT5影像融合后存在大量的洋红色,与实地颜色不一致的,可以通过改变色度、饱和度、明度等将其转变为土黄色,使其更接近于真实颜色。(5)反差增强。

通过亮度和对比度调整,可以增强地物间的反差,使不同地类更易区分。通过融合影像后处理,进一步改善影像的视觉效果,使整景影像色彩真实均匀、明暗程度适中、清晰,增强专题信息,特别是加强纹理信息。

图4-10融合处理算法4.3.4正射校正模型选择与处理4.3.4.1正射纠正的基本模型一般对推扫式遥感卫星影像的正射纠正有严密纠正模型和变换关系纠正模型两大类。

严密纠正模型根据卫星轨道参数、传感器摄影特征以及成像特点,由传感器在获取影像瞬间的位置、方位等因素,建立起像点与地面之间的共线关系,并由此共线方程解求像点或地面点的纠正。

而变换关系纠正模型是一种传统的几何纠正方式,不考虑成像的特性,它通过地面控制点与影像同名点计算出不同变换式的变换系数,从而将变形的原始影像拟合到地面坐标中。

严密纠正模型有基于多项式的共线方程、基于卫星轨道参数的纠正方法、基于光束法的区域网平差等方法;变换关系纠正模型有多项式纠正、有理函数多项式、有理函数多项式区域网平差等方法。

其中,区域网平差是用较少的控制点以多景影像组成区域网进行平差的纠正方法。(1)基于多项式的共线方程纠正方法。

改正原始影像的几何变形,采用像素坐标变换,使影像坐标符合某种地图投影和图形表达方式和像素亮度值重采样。在摄影瞬间,传感器、影像、地面三者之间,以共线方程反映了成像时地面点和像点之间一一对应的关系。

由于推扫式成像是当前大多数遥感卫星采用的主流成像方式,那么整景影像为多中心投影,每条扫描线是中心投影。用共线方程表达为推扫式成像的每一扫描线外方位元素均不同,且y值恒为0。

正射纠正时必须求解每一行的外方位元素,利用共线方程得到与地面点相对应的像点坐标,加入DEM后对影像进行纠正。

一般可以认为,在一定时间内,遥感卫星在轨道运行时,空间姿态变化是稳定的,那么6个外方位元素的变化是时间的函数。

由于推扫式影像y坐标和时间之间有固定的对应关系,即每行扫描时间相同,所以可将第i行外方位元素表示为初始外方位元素(φi,wi,ki)和行数y的函数,而这个函数可以用二次多项式函数来表示,即该方法需获得初始外方位元素可从星历文件中得到,如SPOTS影像星历,在DIM,CAP格式文件中。

(2)多项式纠正方法。多项式纠正方法是一种传统的变换关系纠正方法。

多项式用二维的地面控制点计算出与像点的变换关系,设定任意像元在原始影像中坐标和对应地面点坐标分别为(x,y)和(X,Y),以x=Fx(x,y),y=Fy(x,y)数学表达式表达,如果该数学表达式采用多项式函数来表达,则像点坐标(x,y)与地面点坐标(X,Y)建立的多项式函数为式中(:a0,a1,a2,a3,……,an)(,b0,b1,b2,b3,……,bn)——变换系数。

一般多项式阶数是1阶到5阶的,式中表达的为3阶。所需控制点数N与多项式阶数n的关系为:N(=n+1)(n+2)/2,即1阶需3个控制点,2阶需6个控制点,3阶需10个控制点。

多项式纠正考虑二维平面间的关系差,因此,对于地形起伏高差较大的区域,并不能改正由地形起伏引起的投影误差,纠正后的精度就不高。另外考虑入射角的影响,多项式纠正对于地形起伏较大地区并不适宜。

(3)有理函数纠正方法。

有理函数纠正方法是一种变换关系的几何纠正模型,以有理函数系数(RationalFunctionCoefficient)将地面点P(La,Lb,Hc)与影像上的点(pIi,Sa)联系起来。

对于地面点P,其影像坐标(pIi,Sa)的计算始于经纬度的正则化,即正则化的影像坐标(x,y)为求得的影像坐标为有理函数纠正不仅以较高的精度进行物方和像方的空间变换,相对于多项式纠正方法考虑了地面高程,相对于基于共线方程模型使复杂的实际传感器模型得以简化,便于实现。

(4)区域网平差纠正方法。

区域网平差,首先将三维空间模型经过相似变换缩小到影像空间,再将其以平行光投影至过原始影像中心的一个水平面上,最后将其变换至原始倾斜影像,从而进行以仿射变换建立误差方程,包括每景影像的参数和地面影像坐标的改正,组成法方程,进行平差计算改正。

基于模型的区域网平差,是通过影像之间的约束关系补偿有理函数模型的系统误差。区域网平差要合理布设控制点,在景间需有一定数量的连接点,所需控制点数量较少。

4.3.4.2正射纠正本次遥感影像正射纠正采用专业遥感影像处理软件ERDAS提供的LPS正射模块进行的,纠正过程如图4-11所示。

图4-11正射纠正流程为了与以往的县级土地利用数据库相衔接,平面坐标系统仍然采用1954北京坐标系,高程系统采用1985国家高程基准,投影方式采用高斯-克吕格投影,分带方式为3°分带。

本项目涉及79景连片且同源影像数据,因此采用整体区域纠正,以工作区为纠正单元,利用具有区域网纠正功能的ERDAS中LPS模块进行区域网平差,根据影像分布情况建立一个区域网文件,快速生成无缝正射镶嵌精确的正射影像,如图4-12所示。

因本工作区涉及37°、38°、39°三个3°分带,考虑到全省数据镶嵌等问题,整个工程采用38°带,其中央经线为114°。

本次纠正中采用SPOT5物理模型,控制点均匀分布于整景影像,控制点个数25个,相邻景影像重叠区有2个以上共用控制点。工作区控制点分布如图4-13所示。

影像正射纠正以实测控制点和1∶5万DEM为纠正基础,以工作区为纠正单元,采样间隔为2.5m。

对控制点和连接点超过限差的要进行检查、剔除,发现误差超限的点位,应先通过设置其为检查点方式重新解算,如解算通过,则通过平差解算;如果纠正精度超限,查找超限原因,则应考虑在误差较大的点位附近换点或增补点加以解决,并进行必要的返工,直至满足要求为止。

控制点采集如图4-14所示。

对整景利用DEM数据在LPS中选取SPOT5OrbitalPushbroom传感器模型,投影选取GaussKruger,椭球体采用Krasovsky,进行正射纠正,纠正精度满足SPOT5_2.5m数字正射影像图纠正精度要求,纠正后的图面点位中误差见表4-2。

图4-12整体区域纠正控制点选取示意图图4-13区域网平差纠正工程图图4-14控制点采集表4-2正射纠正控制点中误差续表4.3.5镶嵌以项目区为单位,对相邻景正射影像的接边精度进行检查。

经检查接边精度合格后,以项目区为单位,对正射影像进行镶嵌。由于项目区采用的是ERDAS提供的LPS正射模块区域网平差纠正,相邻两幅影像,均采集了两个以上的共用控制点,相应提高了影像镶嵌精度。

在项目区相邻景影像的重叠区域中,平原、丘陵与山区分别随机选取了30对均匀分布的检查点,检查影像的接边精度。根据检查点的点位坐标,计算检查点点位中误差。见表4-3。

表4-3影像镶嵌误差本项目影像镶嵌以工作区为单元,在景与景之间镶嵌线尽量选取线状地物或地块边界等明显分界处,以便使镶嵌影像中的拼接缝尽可能地消除,尽量避开云、雾及其他质量相对较差的区域,使镶嵌处无裂缝、模糊和重影现象,使镶嵌处影像色彩过渡自然,使不同时相影像镶嵌时保证同一地块内纹理特征一致,方便地类判读和界线勾绘。

影像镶嵌图如图4-15所示。

图像融合的matlab源代码 100

一、小波入门简介(1)小波分析的起源、发展与应用(2)感受小波二、小波变换与信号分解重构专题(1)小波变换与信号分解重构(2)自己动手编写小波信号分解与重构的Matlab程序(3)用自编的程序实现小波图像分解与重构三、小波图像融合专题(1)小波图像融合综述(2)小波图像融合的Matlab实现示例四、小波图像压缩专题(1)基于小波变换的图像压缩技术初探(2)零树小波图像压缩专题(3)嵌入式小波零树(EZW)算法的过程详解和Matlab代码(4)多级树集合分裂(SPIHT)算法的过程详解与Matlab实现(5)讨论:一种基于状态位图的SPIHT改进算法另外,附件给出了几个Matlab程序,分别是:1、基于低频融合策略的小波图像融合程序();2、嵌入式零树小波(EZW)算法的图像压缩编解码程序();3、多级树集合分裂(SPIHT)算法的图像压缩编解码程序();4、一种SPIHT改进算法()。

其中都包含了基本的小波图像分解与重构程序,使用的是基本的Haar小波,根据Mallat算法编写。matlab的小波变换源代码可以用来做图像分析:。

急!请教各位,基于pca和基于2dpca图像融合有什么区别呢? 20

基于二维PCA对人脸进行识别,对图像有很好的降维作用,且识别率比pca好-PCAbasedontwo-dimensionalhumanfacerecognition,theimageisverygoodlandingpeacekeepingrole,andtherecognitionratebetterthanpca[]-含有pca和kpca算法,具有很好的在图像处理方面的应用[]-支持向量机方法,用matlab实现,用于分类检测、模式识别,人脸检测等[]-LinearDiscriminantAnalysis算法,此压缩包中已经带有大量train和test的相关图片,用于做人脸识别。

LDA算法也可以用于其他领域如语音信号处理,此代码仅供研究,请勿用于商业!

[]-双树复小波变换Dual-TreeComplexWaveletTransformPack-version4.3NickKingsbury,CambridgeUniversity,June2003.Thispackincludesthefollowing[]-将BP神经网络用于人脸识别,建立了人脸识别模型,研究了样本采样训练、样本批量训练和样本完整训练三种训练策略对识别率的影响。

所设计的识别模型包括图像压缩、图像抽样、输入矢量标准化、BP神经网络与竞争选择处理过程。

利[]-用matlab实现了2dpca算法,基于ORL人脸数据库,识别率较高[]-一种新的pca方法,2dpca,有中科院的ppt及相关资料。

辩识的原理

图像识别技术是信息时代的一门重要的技术,其产生目的是为了让计算机代替人类去处理大量的物理信息。随着计算机技术的发展,人类对图像识别技术的认识越来越深刻。

图像识别技术的过程分为信息的获取、预处理、特征抽取和选择、分类器设计和分类决策。

简单分析了图像识别技术的引入、其技术原理以及模式识别等,之后介绍了神经网络的图像识别技术和非线性降维的图像识别技术及图像识别技术的应用。

从中可以总结出图像处理技术的应用广泛,人类的生活将无法离开图像识别技术,研究图像识别技术具有重大意义。一、图像识别技术的引入图像识别是人工智能的一个重要领域。

图像识别的发展经历了三个阶段:文字识别、数字图像处理与识别、物体识别。图像识别,顾名思义,就是对图像做出各种处理、分析,最终识别我们所要研究的目标。

今天所指的图像识别并不仅仅是用人类的肉眼,而是借助计算机技术进行识别。虽然人类的识别能力很强大,但是对于高速发展的社会,人类自身识别能力已经满足不了我们的需求,于是就产生了基于计算机的图像识别技术。

这就像人类研究生物细胞,完全靠肉眼观察细胞是不现实的,这样自然就产生了显微镜等用于精确观测的仪器。通常一个领域有固有技术无法解决的需求时,就会产生相应的新技术。

图像识别技术也是如此,此技术的产生就是为了让计算机代替人类去处理大量的物理信息,解决人类无法识别或者识别率特别低的信息。

1、图像识别技术原理其实,图像识别技术背后的原理并不是很难,只是其要处理的信息比较繁琐。计算机的任何处理技术都不是凭空产生的,它都是学者们从生活实践中得到启发而利用程序将其模拟实现的。

计算机的图像识别技术和人类的图像识别在原理上并没有本质的区别,只是机器缺少人类在感觉与视觉差上的影响罢了。

人类的图像识别也不单单是凭借整个图像存储在脑海中的记忆来识别的,我们识别图像都是依靠图像所具有的本身特征而先将这些图像分了类,然后通过各个类别所具有的特征将图像识别出来的,只是很多时候我们没有意识到这一点。

当看到一张图片时,我们的大脑会迅速感应到是否见过此图片或与其相似的图片。其实在“看到”与“感应到”的中间经历了一个迅速识别过程,这个识别的过程和搜索有些类似。

在这个过程中,我们的大脑会根据存储记忆中已经分好的类别进行识别,查看是否有与该图像具有相同或类似特征的存储记忆,从而识别出是否见过该图像。

机器的图像识别技术也是如此,通过分类并提取重要特征而排除多余的信息来识别图像。机器所提取出的这些特征有时会非常明显,有时又是很普通,这在很大的程度上影响了机器识别的速率。

总之,在计算机的视觉识别中,图像的内容通常是用图像特征进行描述。2、模式识别模式识别是人工智能和信息科学的重要组成部分。

模式识别是指对表示事物或现象的不同形式的信息做分析和处理从而得到一个对事物或现象做出描述、辨认和分类等的过程。计算机的图像识别技术就是模拟人类的图像识别过程。

在图像识别的过程中进行模式识别是必不可少的。模式识别原本是人类的一项基本智能。

但随着计算机的发展和人工智能的兴起,人类本身的模式识别已经满足不了生活的需要,于是人类就希望用计算机来代替或扩展人类的部分脑力劳动。这样计算机的模式识别就产生了。

简单地说,模式识别就是对数据进行分类,它是一门与数学紧密结合的科学,其中所用的思想大部分是概率与统计。模式识别主要分为三种:统计模式识别、句法模式识别、模糊模式识别。

二、图像识别技术的过程既然计算机的图像识别技术与人类的图像识别原理相同,那它们的过程也是大同小异的。图像识别技术的过程分以下几步:信息的获取、预处理、特征抽取和选择、分类器设计和分类决策。

信息的获取是指通过传感器,将光或声音等信息转化为电信息。也就是获取研究对象的基本信息并通过某种方法将其转变为机器能够认识的信息。

预处理主要是指图像处理中的去噪、平滑、变换等的操作,从而加强图像的重要特征。特征抽取和选择是指在模式识别中,需要进行特征的抽取和选择。

简单的理解就是我们所研究的图像是各式各样的,如果要利用某种方法将它们区分开,就要通过这些图像所具有的本身特征来识别,而获取这些特征的过程就是特征抽取。

在特征抽取中所得到的特征也许对此次识别并不都是有用的,这个时候就要提取有用的特征,这就是特征的选择。特征抽取和选择在图像识别过程中是非常关键的技术之一,所以对这一步的理解是图像识别的重点。

分类器设计是指通过训练而得到一种识别规则,通过此识别规则可以得到一种特征分类,使图像识别技术能够得到高识别率。分类决策是指在特征空间中对被识别对象进行分类,从而更好地识别所研究的对象具体属于哪一类。

三、图像识别技术的分析随着计算机技术的迅速发展和科技的不断进步,图像识别技术已经在众多领域中得到了应用。

2015年2月15日新浪科技发布一条新闻:“微软最近公布了一篇关于图像识别的研究论文,在一项图像识别的基准测试中,电脑系统识别能力已经超越了人类。

人类在归类数据库ImageNet中的图像识别错误率为5.1%,而微软研究小组的这个深度学习系统可以达到4.94%的错误率。

”从这则新闻中我们可以看出图像识别技术在图像识别方面已经有要超越人类的图像识别能力的趋势。这也说明未来图像识别技术有更大的研究意义与潜力。

而且,计算机在很多方面确实具有人类所无法超越的优势,也正是因为这样,图像识别技术才能为人类社会带来更多的应用。

1、神经网络的图像识别技术神经网络图像识别技术是一种比较新型的图像识别技术,是在传统的图像识别方法和基础上融合神经网络算法的一种图像识别方法。

这里的神经网络是指人工神经网络,也就是说这种神经网络并不是动物本身所具有的真正的神经网络,而是人类模仿动物神经网络后人工生成的。

在神经网络图像识别技术中,遗传算法与BP网络相融合的神经网络图像识别模型是非常经典的,在很多领域都有它的应用。

在图像识别系统中利用神经网络系统,一般会先提取图像的特征,再利用图像所具有的特征映射到神经网络进行图像识别分类。以汽车拍照自动识别技术为例,当汽车通过的时候,汽车自身具有的检测设备会有所感应。

此时检测设备就会启用图像采集装置来获取汽车正反面的图像。获取了图像后必须将图像上传到计算机进行保存以便识别。最后车牌定位模块就会提取车牌信息,对车牌上的字符进行识别并显示最终的结果。

在对车牌上的字符进行识别的过程中就用到了基于模板匹配算法和基于人工神经网络算法。2、非线性降维的图像识别技术计算机的图像识别技术是一个异常高维的识别技术。

不管图像本身的分辨率如何,其产生的数据经常是多维性的,这给计算机的识别带来了非常大的困难。想让计算机具有高效地识别能力,最直接有效的方法就是降维。降维分为线性降维和非线性降维。

例如主成分分析(PCA)和线性奇异分析(LDA)等就是常见的线性降维方法,它们的特点是简单、易于理解。但是通过线性降维处理的是整体的数据集合,所求的是整个数据集合的最优低维投影。

经过验证,这种线性的降维策略计算复杂度高而且占用相对较多的时间和空间,因此就产生了基于非线性降维的图像识别技术,它是一种极其有效的非线性特征提取方法。

此技术可以发现图像的非线性结构而且可以在不破坏其本征结构的基础上对其进行降维,使计算机的图像识别在尽量低的维度上进行,这样就提高了识别速率。

例如人脸图像识别系统所需的维数通常很高,其复杂度之高对计算机来说无疑是巨大的“灾难”。

由于在高维度空间中人脸图像的不均匀分布,使得人类可以通过非线性降维技术来得到分布紧凑的人脸图像,从而提高人脸识别技术的高效性。

3、图像识别技术的应用及前景计算机的图像识别技术在公共安全、生物、工业、农业、交通、医疗等很多领域都有应用。

例如交通方面的车牌识别系统;公共安全方面的人脸识别技术、指纹识别技术;农业方面的种子识别技术、食品品质检测技术;医学方面的心电图识别技术等。

随着计算机技术的不断发展,图像识别技术也在不断地优化,其算法也在不断地改进。图像是人类获取和交换信息的主要来源,因此与图像相关的图像识别技术必定也是未来的研究重点。

以后计算机的图像识别技术很有可能在更多的领域崭露头角,它的应用前景也是不可限量的,人类的生活也将更加离不开图像识别技术。结束语图像识别技术虽然是刚兴起的技术,但其应用已是相当广泛。

并且,图像识别技术也在不断地成长,随着科技的不断进步,人类对图像识别技术的认识也会更加深刻。未来图像识别技术将会更加强大,更加智能地出现在我们的生活中,为人类社会的更多领域带来重大的应用。

在21世纪这个信息化的时代,我们无法想象离开了图像识别技术以后我们的生活会变成什么样。图像识别技术是人类现在以及未来生活必不可少的一项技术。

 

Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐