
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
TensorFlow产生的历史必然性1980s:感知机与特征工程计算力低,数据量小1990s:神经网络在图像和语音领域发力MINIST:手写字体识别,机器学习界的Hello Word2012-:算力和数据增长推动深度学习的繁荣发展TensorFlow与Jeff DeanTensorFlow之父——Jeff DeanTensorFlow前世今生第一代深度学习平台:Google DistBelief(
1. 回归的损失函数:均方误差损失,平均平方对数误差损失,平均绝对误差损失;2. 二值分类损失函数:二叉熵、Hinge损失、Squared Hinge损失;3. 多类分类损失函数:多类交叉熵损失、稀疏多类交叉熵损失、Kullback Leibler散度损失。
阿里云天池实验室使用
GPU是一种专门进行图像运算工作的微处理器。把浮点运算做一些处理,包装成图形渲染任务,然后再交给GPU来做,这样GPU就可以做浮点运算,不过这样要求有一定的图形学知识。为了让不懂图形学知识的人也能体验到GPU运算的强大,Nvidia公司又提出了CUDA的概念。
Gradient Descent1. 算法框架2. 理论原理假设参数θ\thetaθ是二维的,损失函数在(a,b)(a,b)(a,b)处的一阶泰勒展开,L(θ)=L(a,b)+∂L(a,b)∂θ1(θ1−a)+∂L(a,b)∂θ2(θ2−b)+o(θ1−a)+o(θ2−b)L(\theta)=L(a,b)+\frac{\partial L(a,b)}{\partial \theta_1}...
Gradient Descent1. 算法框架2. 理论原理假设参数θ\thetaθ是二维的,损失函数在(a,b)(a,b)(a,b)处的一阶泰勒展开,L(θ)=L(a,b)+∂L(a,b)∂θ1(θ1−a)+∂L(a,b)∂θ2(θ2−b)+o(θ1−a)+o(θ2−b)L(\theta)=L(a,b)+\frac{\partial L(a,b)}{\partial \theta_1}...
核函数定义 《统计学习方法》中给出的核函数的定义为: 设X\mathcal{X}X是输入空间(欧式空间Rn\mathbb {R}^nRn的子集或离散集合),H\mathcal{H}H为特征空间(希尔伯特空间),如果存在一个从X\mathcal{X}X到H\mathcal{H}H的映射ϕ(x):X→H\phi(x): \mathcal{X}\rightarrow\mathcal{H}ϕ(x...
回归1. 模型建立模型:这里为线性模型;衡量模型好坏:损失函数;训练模型目标:最小化损失函数,优化方法求解优化问题;2. 模型评价训练集、测试集上的平均误差:主要关注测试集上的平均误差;3. 模型优化3.1 增大模型复杂度随着模型复杂度的增加,训练集上的平均误差逐渐减小,测试集上的平均误差先减小后增大,过于复杂的模型会出现过拟合现象;3.2 考虑隐变量不...
Keras Model类中的fit()与fit_generator()、predict()与predict_generator(),函数详细参数
如何使用北大开源中文分词工具包 pkuseg;pkuseg特点:分词准确率高,多领域分词,支持用户自训练模型。pkuseg与jieba、THULAC等国内代表分词工具的比较。







