logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Linux下vim打不开

1 首先确定Linux能够上网:http://jingyan.baidu.com/article/6c67b1d68facbb2786bb1e7b.html2 在linux下通过sudo apt-get install失败后可以尝试以下命令:sudo apt-get update && sudo apt-get install vim或者可以先尝试以下命令:a.先执行$ s

C++11 的for_each、lambda表达式

C++STL的非变易算法(Non-mutating algorithms)是一组不破坏操作数据的模板函数,用来对序列数据进行逐个处理、元素查找、子序列搜索、统计和匹配。for_each用于逐个遍历容器元素,它对迭代器区间[first,last)所指的每一个元素,执行由单参数函数对象f所定义的操作。 原型:template<class InputIterator, class Function>

Linux下离开vim的常见方式

1 如果使用vim后没有更改相关内容,则使用:按了ESC后直接按::q2 如果使用vim后更改了相关内容,又想不保存退出:按了ESC后直接按::q!加!的意思但是强制退出3 如果修改了相关内容,想保存后退出,则使用按了ESC后直接按:Shift + ZZ按了ESC后直接按:wq也是保存退出的意思,w是写入,q是quit,也就是退出的一意思,其实wq也可以

5个linux下通过命令行下载文件的命令

中文翻译: ttps://linux.cn/article-5546-1.html原文:http://www.tecmint.com/linux-command-line-tools-for-downloading-files/

tensorflow optimizer 总结

tensorflow上的优化函数:下面图像来源:https://morvanzhou.github.io/tutorials/machine-learning/ML-intro/3-06-speed-up-learning/SGD 所谓的随机梯度下降,就是指,由于取的样本是一批一批的,因此,每批数据之间有可能会导致参数的梯度更新方向不一致,因此叫随机梯度下降优点在初期解

tensorflow 恢复指定层与不同层指定不同学习率

#tensorflow 中从ckpt文件中恢复指定的层或将指定的层不进行恢复:#tensorflow 中不同的layer指定不同的学习率with tf.Graph().as_default():#存放的是需要恢复的层参数variables_to_restore = []#存放的是需要训练的层参数名,这里是没恢复的需要进行重新训练,实际上恢复了的参数也可以训练

HTK

基于HTK语音工具包 的学习(中文):http://blog.sina.com.cn/s/blog_436992740102uwub.htmlHTK入门讲解:http://blog.csdn.net/neustar1/article/details/19283017(HTK连续语音识别)http://m.blog.csdn.net/blog/u010384318/176

python中的__doc__,__name__

模块的name每个模块都有一个名称,在模块中可以通过语句来找出模块的名称。这在一个场合特别有用——就如前面所提到的,当一个模块被第一次输入的时候,这个模块的主块将被运行。假如我们只想在程序本身被使用的时候运行主块,而在它被别的模块输入的时候不运行主块,我们该怎么做呢?这可以通过模块的name属性完成。使用模块的name例 使用模块的name#!/usr/bin/python# Filena

GMM-HMM语音识别

    现在假设知道了HMM模型中的一个状态(比如,孤立此识别中,这里一个状态代表一个词)对应的K个多维高斯的所有参数,则该GMM生成该状态(该词)上某一个观察向量()的概率就出来了,即,知道了某个孤立词对应的K个高斯模型的所有参数,那么,就可以计算一帧观测值对于该词的概率。以下是文献中提到的    机器学习&数据挖掘笔记_14(GMM-HMM语音识别简单理解)为了对GMM-H

到底了