参考教材书:《模式识别》吴陈等编著,机械工业出版社。

第2章(P47)

2.11 选择题

​ (1)影响聚类算法结果的主要因素有( B C D BCD BCD

A . A. A. 已知类别的样本质量 B . B. B. 分类准则 C . C. C. 特征选取 D . D. D. 模式相似性测度

​ (2)聚类分析算法属于( A A A

A . A. A. 无监督分类 B . B. B. 有监督分类 C . C. C. 统计模式识别方法 D . D. D. 句法模式识别方法

​ (3)影响 K − K- K均值聚类算法效果的主要因素之一是初始聚类中心的选取,相比较而言,怎样选择 k k k 个样本作为初始聚类中心较好( C C C

A . A. A. 按输入顺序选前 B . B. B. 选相距最远的 C . C. C. 选分布密度最高处的 D . D. D. 随机挑选

​ (4)如下聚类算法中,属于静态聚类算法的是( A B AB AB

A . A. A. 最大最小距离聚类算法 B . B. B. 层次聚类算法 C . C. C. K − K- K均值聚类算法 D . D. D. I S O D A T A ISODATA ISODATA 算法

​ (5)若描述模式的特征量为 0 − 1 0-1 01 二值特征向量,则一般采用( D D D)进行相似度量。

A . A. A. 距离测度 B . B. B. 模糊测度 C . C. C. 相似测度 D . D. D. 匹配测度

2.12 填空题

​ (1)影响层次聚类算法结果的主要因素有 计算模式距离的测度、聚类准则、类间距离阈值、预定的类别数目

​ (2)层次聚类算法为 凝聚法分裂法

​ (3)动态聚类算法选择若干样品作为 聚类中心,再按照某种聚类准则,将其余的样品归入 各中心,得到初始分类。

​ (4)影响 K − K- K均值聚类算法的因素有聚类中心个数、初始聚类中心、样品的几何性质及排列次序。

第3章(P95)

3.16 选择题

​ (1)费歇尔线性判别函数的求解过程是将 N N N 维特征向量投影在( B B B)中进行。

A . A. A. 二维空间 B . B. B. 一维空间 C . C. C. N − 1 N-1 N1 维空间 D . D. D. 三维空间

​ (2)感知器算法( A A A)情况。

A . A. A. 只适用于线性可分 B . B. B. 只适用于线性不可分 C . C. C. 不适用于线性可分 D . D. D. 适用于线性可分和不可分

​ (3) H − K H-K HK 算法( D D D)。

A . A. A. 只适用于线性可分 B . B. B. 只适用于线性不可分 C . C. C. 不适用于线性可分 D . D. D. 适用于线性可分和不可分

​ (4)位势函数法的积累势函数 K ( X ) K(X) K(X) 的作用相当于贝叶斯判别中的( B D BD BD)。

A . A. A. 先验概率 B . B. B. 后验概率 C . C. C. 类概率密度 D . D. D. 类概率密度与先验概率的乘积

​ (5)聚类分析算法属于无监督分类;判别域代数界面方程法属于( C C C)。

A . A. A. 无监督分类 B . B. B. 有监督分类 C . C. C. 统计模式识别方法 D . D. D. 句法模式识别方法

​ (6)类域界面方程法中,能求线性不可分情况下分类问题近似或精确解的方法是( B C D BCD BCD)。

A . A. A. 感知器算法 B . B. B. 伪逆法 C . C. C. 基于二次准则的 H − K H-K HK 算法 D . D. D. 势函数法

对于D,势函数法:势函数非线性。
对于C,基于二次准则的H-K算法:在最小均方误差准则下求得权矢量,可以解决非线性问题。
对于B,伪逆法:径向基(RBF)神经网络的训练算法,解决线性不可分的情况。
对于A,感知器算法:线性分类模型。
“不能求解线性不可分情况下的分类问题” 即:“不能求解非线性分类问题”,感知器算法属于线性分类模型,故不能求解非线性分类问题。
汇总:解决非线性问题:势函数法;基于二次准则的H-K算法;伪逆法

只能解决线性问题:感知器算法。

​ (7)判别域代数界面方程法属于( B B B)。

A . A. A. 无监督分类 B . B. B. 统计模式识别方法 C . C. C. 模糊模式识别方法 D . D. D. 句法模式识别方法

​ (8)下列判别域界面方程法中只适用于线性可分情况的算法有( A D AD AD)。

A . A. A. 感知器算法 B . B. B. H − K H-K HK 算法 C . C. C. 积累位势函数法 D . D. D. 费歇尔线性判别法

​ (9)线性可分、不可分都适用的有( C C C)。

A . A. A. 感知器算法 B . B. B. H − K H-K HK 算法 C . C. C. 积累位势函数法 D . D. D. 费歇尔线性判别法

3.17 填空题

​ (1) L M S E LMSE LMSE 算法是对准则函数引进 最小均方误差 这一条件而建立起来的。

​ (2)核方法首先采用非线性映射将原始数据由 低维空间 映射到 高维空间,进而在特征空间进行着对应的线性操作。

​ (3)线性判别函数的正负和数值大小的几何意义是,正负表示样本点位于判别界面法向量指向的 正(负) 半空间中,绝对值正比于 样本点到判别界面的距离

第5章(P184)

5.2 选择题

​ (1)欧氏距离具有( A B AB AB),马氏距离具有( A B C D ABCD ABCD

A . A. A. 平移不变形 B . B. B. 旋转不变形 C . C. C. 尺寸缩放不变形 D . D. D. 不受量纲影响的特性

​ (2)下列函数可以作为聚类分析中的准则函数的有( A C D ACD ACD

A . t r ( S ω − 1 S b ) A.tr({S_\omega}^{-1}S_b) A.tr(Sω1Sb) B . ∣ S ω S b − 1 ∣ B.|S_\omega{S_b}^{-1}| B.SωSb1

C . ∑ j = 1 c ∑ i = 1 N j ∣ ∣ X i ( j ) − M j ∣ ∣ 2 C.\sum\limits_{j=1}^{c}\sum\limits_{i=1}^{N_j}||{X_i}^{(j)}-M_j||^2 C.j=1ci=1NjXi(j)Mj2 D . ∑ j = 1 c ( M j − M ) ( M j − M ) T D.\sum\limits_{j=1}^{c}(M_j-M)(M_j-M)^T D.j=1c(MjM)(MjM)T

5.3 填空题

​ (1)设 ω i = { x k ( i ) , k = 1 , 2 , ⋅ ⋅ ⋅ , N i } \omega_i=\{{x_k}^{(i)},k=1,2,···,N_i\} ωi={xk(i),k=1,2,,Ni} 的均值向量为 m ( i ) m^{(i)} m(i),则由样本集定义的类内均方欧氏距离为 D i ‾ 2 = E { D 2 ( X k , X l ) } = E { ( X k − X l ) T ( X k − X l ) } \overline{D_i}^2=E\{D^2(X_k,X_l)\}=E\{(X_k-X_l)^T(X_k-X_l)\} Di2=E{D2(Xk,Xl)}=E{(XkXl)T(XkXl)}

​ (2)三种基于概率密度的判断依据分别为:散度 C h e r n o f f Chernoff Chernoff界限巴氏距离

​ (3)基于熵的可分性判别定义为 J h = E x [ − ∑ i = 1 c P ( ω i ∣ x ) log ⁡ P ( ω i ∣ x ) ] J_h=E_x[-\sum\limits_{i=1}^{c}P(\omega_i\mid x)\log P(\omega_i\mid x)] Jh=Ex[i=1cP(ωix)logP(ωix)] J h J_h Jh,说明模式的可分辨性越强。当 P ( ω i ∣ x ) = P(\omega_i\mid x)= P(ωix)= 1 c ‾ \underline{\frac{1}{c}} c1 时, J h J_h Jh 达到极大值。

​ (4)散度 J i j J_{ij} Jij 越大,说明 ω i \omega_i ωi 类模式与 ω j \omega_j ωj 类模式的分布分离 越开;当 ω i \omega_i ωi 类模式与 ω j \omega_j ωj 类模式的分布相同时, J i j = J_{ij}= Jij= 0

第6章(P214)

6.1 句法模式识别中,模式类是如何描述的?
由某个文法所描述的所有模式即句子的集合构成一个模式类。

6.2 文法 G G G 的四元组表达式为: G = ( V T , V N , S , P ) G=(V_T,V_N,S,P) G=(VT,VN,S,P)

6.3 按照产生式的形式定义的四种文法的包含关系为:3型 ⊆ \subseteq 2型 ⊆ \subseteq 1型 ⊆ \subseteq 0型。

6.7 句法模式识别中模式表述的方法有( A B C ABC ABC

A . A. A. 符号串 B . B. B. C . C. C. D . D. D. 特征向量

第8章(P276)

8.9 神经网络的学习方式有 有导师的学习无导师的学习

8.10 离散型 H o p f i e l d Hopfield Hopfield 神经网络的工作方式有 同步异步、。

8.11 感知器算法只适用于 线性可分问题

8.12 单层感知器网络用于解决 线性可分 问题,而多层感知器网络可以解决 线性不可分 问题。

第9章(P285)

9.1 决策树基本由 分支结点分支叶结点 部分组成。

9.2 决策树学习通常包括三个步骤:特征选择决策树生成决策树剪枝

9.3 在属性 A A A 上分支获得的信息增益表示为: G a i n ( A , D ) = I n f o ( D ) − E ( A , D ) = I ( s 1 , s 2 , ⋅ ⋅ ⋅ , s m ) − E ( A , D ) Gain(A,D)=Info(D)-E(A,D)=I(s_1,s_2,···,s_m)-E(A,D) Gain(A,D)=Info(D)E(A,D)=I(s1,s2,,sm)E(A,D)

9.4 基尼指数是一种数据的不纯度的度量方法,其公式为: G i n i ( D ) = ∑ j = 1 m p j ( 1 − p j ) = 1 − ∑ j = 1 m p j 2 Gini(D)=\sum\limits_{j=1}^{m}p_j(1-p_j)=1-\sum\limits_{j=1}^{m}{p_j}^2 Gini(D)=j=1mpj(1pj)=1j=1mpj2

9.5 在建立决策树时,为了降低噪声影响,可进行 先剪枝后剪枝 两种剪枝操作。

第10章(P300)

10.4 S V M SVM SVM 是一种两类分类模型,其基本模型定义为特征空间上的 间隔最大 的线性分类器。

10.5 支持向量机利用 核函数 取代了高位特征空间中的内积运算,解决了算法可能导致的“维数灾难”问题。

第11章(P321)

11.2 设论域 U = { 1 , 2 , 3 , 4 , 5 } U=\{1,2,3,4,5\} U={1,2,3,4,5} 的二元关系 R 1 = { < 2 , 3 > , < 3 , 2 > , < 3 , 5 > , < 5 , 3 > , < 5 , 2 > , < 2 , 5 > } ∪ I U , R 2 = { < 4 , 2 > , < 2 , 4 > , < 2 , 3 > , < 3 , 2 > , < 4 , 3 > , < 3 , 4 > , < 1 , 5 > , < 5 , 1 > } ∪ I U R_1=\{<2,3>,<3,2>,<3,5>,<5,3>,<5,2>,<2,5>\}\cup I_U,R_2=\{<4,2>,<2,4>,<2,3>,<3,2>,<4,3>,<3,4>,<1,5>,<5,1>\}\cup I_U R1={<2,3>,<3,2>,<3,5>,<5,3>,<5,2>,<2,5>}IU,R2={<4,2>,<2,4>,<2,3>,<3,2>,<4,3>,<3,4>,<1,5>,<5,1>}IU,其中 I U I_U IU U U U 上的恒等关系,则 U / R 1 = { < 2 , 3 , 5 > , < 1 > , < 4 > } U/R_1=\{<2,3,5>,<1>,<4>\} U/R1={<2,3,5>,<1>,<4>} U / R 2 = { < 2 , 3 , 4 > , < 1 , 5 > } U/R_2=\{<2,3,4>,<1,5>\} U/R2={<2,3,4>,<1,5>}

11.3 信息系统的四元组表达形式为: S = < U , A , V , f > S=<U,A,V,f> S=<U,A,V,f>

Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐