简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
上两周心血来潮想在自己的Surface(Win10 Home系统)上用TensorFlow和Python,但是安装实在是太麻烦了…就想到能不能在Windows上用docker直接运行linux环境的TensorFlow?网上一查还真有,然后很开心的下载安装…谁知进入了一个超级大坑T_T,经过断断续续几次的研究(折腾)终于在今天搭建完成环境,在本文中给一个详细的教程,帮助大家少走弯路~!
所谓纳什均衡,指的是参与人的这样一种策略组合,在该策略组合上,任何参与人单独改变策略都不会得到好处。换句话说,如果在一个策略组合上,当所有其他人都不改变策略时,没有人会改变自己的策略,则该策略组合就是一个纳什均衡。
我们平时ML任务的时候,用的最多的是cross entropy loss或者MSE loss。需要有一个明确的目标,比如一个具体的数值或者是一个具体的分类类别。但是ranking loss实际上是一种metric learning,他们学习的相对距离,相关关系,而对具体数值不是很关心。ranking loss 有非常多的叫法,但是他们的公式实际上非常一致的。大概有两类,一类是输入pair 对,另外
在数学上,双线性插值是有两个变量的插值函数的线性插值扩展,其核心思想是在两个方向分别进行一次线性插值
前面三篇写了线性回归,lasso,和LARS的一些内容,这篇写一下决策树这个经典的分类算法,后面再提一提随机森林。关于决策树的内容主要来自于网络上几个技术博客,本文中借用的地方我都会写清楚出处,写这篇[整理文章]的目的是对决策树的
写一篇关于Cholesky分解的文章,作为学习笔记,尽量一文看懂矩阵Cholesky分解,以及用Cholesky分解来求解对称正定线性方程组,以及求“对称正定矩阵”的逆的应用。
索尔克研究所发布的数据表明,人脑记忆容量可达到PB级别,相当于整个互联网的数据量,这项研究也揭开了人脑高效节能之谜。发现也将有助于计算机科学家开发超精密的、高效节能的计算机,尤其是那些配置深度学习和人工神经网络的机器,这些程序能够胜任复杂的学习和分析,例如语音识别、图像识别和翻译。
原创书写,转载请注明此文出自:http://blog.csdn.net/xbinworld,Bin的专栏 Pattern Recognition and Machine Learning (PRML)书,章节1.2,Probability Theory (上)这一节是浓缩了整本书关于概率论的精华,突出一个不确定性(uncertainty)的理解。我看的比较慢,是想要细扣一下,而
原创书写,转载请注明此文出自:http://blog.csdn.net/xbinworld,Bin的专栏 Pattern Recognition and Machine Learning (PRML)书学习,章节1.1,介绍与多项式曲线拟合(Polynomial Curve Fitting)博士也快念完了,明年毕业,今年开始准备毕业相关的东西,感觉自己做machine lear
原创书写,转载请注明此文出自:http://blog.csdn.net/xbinworld,Bin的专栏今天开始学Pattern Recognition and Machine Learning (PRML),章节1.2,Probability Theory (下)今天把1.2写完,这一节讲了很多重要的基础内容。1.2.3 贝叶斯概率这一节的上半