logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

语音识别学习日志 2018-7-16 语音识别基础知识准备(2)

2018-7-16音强表征声波强度,一般用DB值衡量。声音强度由振动幅度的大小决定,以能量来计算称声强,以压力计算表示时称声压。声强(I)与声压(P)的关系为:I=(P^2)/(ρv) (此时P为有效值,若P为幅值,则 I=(P^2)/(2ρv) ),其中ρ-介质密度,v-声速。基音 一般的声音都是由发音体发出的一系列频率、振幅各不相同的振动复合而成的。这些振动中有一个频率最低...

语音识别学习日志 2018-7-23 [ Hello TensorFlow ]

今天CNN的理解写了一半,感觉理解的不够深刻,就打算先实现几个例子再接着看理论。之后就了解了一下TensorFlow。python版的tensorflow就是一个工具包,使用pip安装就行了。有CPU和GPU两个版本,刚开始用,安装CPU版本的试一试。谷歌给了几个tensorflow的安装方式,无非就是使用虚拟环境或者装在Docker中,也可以使用Anaconda安装,安装过程不再赘述,具体可..

语音识别学习日志 2018-7-21 梯度下降法

在说BP算法前先说一下梯度下降法。当神经网络的层数和神经元数量较多时,为了找到神经网络中最优的一组参数,需要一个可靠的、时间上可行的方法去调整神经网络中的参数。本文中使用的图片来自李宏毅的“一天搞懂深度学习”。首先引入神经网络中的Loss函数,Loss函数用来表征神经网络输出和预计输出之间的误差。一条训练数据的误差可如下图表示:总误差即所有误差的和:对于误差L,计算误差L对...

语音识别学习日志 2018-7-22 BP算法推导

编辑公式太闹心了,直接贴手稿吧.(更正一下,下文中的阀值都应该是阈(yu)值,是我才疏学浅了,今天打字自动给我更正成了阈值,搜了一下才知道这么多年一直都是错的,尴尬)...

语音识别学习日志 2018-7-20 感知机PLA、多层感知机MLP

2018-7-20感知机,PLA多层感知机是由感知机推广而来,感知机的神经网络表示如下:                                                                     表达式:从上述内容更可以看出,PLA是一个线性的二分类器,但不能对非线性的数据并不能进行有效的分类。因此便有了对网络层次的加深,理论上,多层网络可以模...

语音识别学习记录 [传说中的频率混叠和Nyquist定理(定性理解)]

Nyquist定理:为了不失真地恢复模拟信号,采样频率应该不小于模拟信号频谱中最高频率的2倍。Nyquist定理主要就是为了避免频率混叠现象。本文不再给出推导过程,推导可以参考奈奎斯特采样定理之我见。频率混叠是由于采样信号频谱发生变化,而出现高、低频成分发生混淆的一种现象。抽样时频率不够高,抽样出来的点既代表了信号中的低频信号的样本值,也同时代表高频信号样本值,在信号重建的时候,高频信号被低频..

语音识别学习记录 [关于tensorflow.nn.conv2d方法的padding参数]

先看一下tensorflow.nn.conv2d 的说明:tf.nn.conv2d 卷积函数参数 input 输入图像 四维,shape如[batch, in_height, in_width, in_channels]参数 filter 卷积核 四维,shape如[filter_height, filter_width, in_channels, out_channels]参数 ...

语音识别学习日志 2018-7-18 语音识别基础知识准备(4)[Baun-Welch算法]

2018-7-18HMM模型参数求解是HMM模型使用中的最复杂的一个问题。HMM模型参数求解概述HMM模型参数求解根据已知的条件可以分为两种情况。第一种情况较为简单,就是我们已知D个长度为T的观测序列和对应的隐藏状态序列,即是已知的,此时我们可以很容易的用最大似然来求解模型参数。 假设样本从隐藏状态转移到的频率计数是,那么状态转移矩阵求得为:                ...

语音识别学习日志 2018-7-17 语音识别基础知识准备(3)

2018-7-17Kmeans算法的缺陷k均值算法主要的两个缺陷: 1. K值需要预先给定,很多情况下K值的估计是非常困难的,对于像计算全部微信用户的交往圈这样的场景就完全的没办法用K-Means进行。对于可以确定K值不会太大但不明确精确的K值的场景,可以进行迭代运算。2. K-Means算法对初始选取的聚类中心点是敏感的,不同的起始K点所得到的聚类结果完全不同 。3. K均值算法并不...

语音识别学习日志 2018-7-24 [MLP实践(MNIST数据集)]

今天实现了一下MLP。先说几个函数的用法。1、在最小化损失的时候,经常使用的一个函数就是tf.nn.softmax_cross_entropy_with_logits(logits=,labels=,name=None).除去name参数用以指定该操作的name,与方法有关的一共两个参数:第一个参数logits:就是神经网络最后一层的输出,如果有batch的话,它的大小就是[batchsi...

    共 20 条
  • 1
  • 2
  • 请选择