logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

TensorFlow简介

TensorFlow产生的历史必然性1980s:感知机与特征工程计算力低,数据量小1990s:神经网络在图像和语音领域发力MINIST:手写字体识别,机器学习界的Hello Word2012-:算力和数据增长推动深度学习的繁荣发展TensorFlow与Jeff DeanTensorFlow之父——Jeff DeanTensorFlow前世今生第一代深度学习平台:Google DistBelief(

训练深度学习神经网络时如何选择损失函数

1. 回归的损失函数:均方误差损失,平均平方对数误差损失,平均绝对误差损失;2. 二值分类损失函数:二叉熵、Hinge损失、Squared Hinge损失;3. 多类分类损失函数:多类交叉熵损失、稀疏多类交叉熵损失、Kullback Leibler散度损失。

内存与显存、CPU与GPU、GPU与CUDA

GPU是一种专门进行图像运算工作的微处理器。把浮点运算做一些处理,包装成图形渲染任务,然后再交给GPU来做,这样GPU就可以做浮点运算,不过这样要求有一定的图形学知识。为了让不懂图形学知识的人也能体验到GPU运算的强大,Nvidia公司又提出了CUDA的概念。

【DL】深度学习优化方法:SGD、SGDM、Adagrad、RMSProp、Adam

Gradient Descent1. 算法框架2. 理论原理假设参数θ\thetaθ是二维的,损失函数在(a,b)(a,b)(a,b)处的一阶泰勒展开,L(θ)=L(a,b)+∂L(a,b)∂θ1(θ1−a)+∂L(a,b)∂θ2(θ2−b)+o(θ1−a)+o(θ2−b)L(\theta)=L(a,b)+\frac{\partial L(a,b)}{\partial \theta_1}...

【DL】深度学习优化方法:SGD、SGDM、Adagrad、RMSProp、Adam

Gradient Descent1. 算法框架2. 理论原理假设参数θ\thetaθ是二维的,损失函数在(a,b)(a,b)(a,b)处的一阶泰勒展开,L(θ)=L(a,b)+∂L(a,b)∂θ1(θ1−a)+∂L(a,b)∂θ2(θ2−b)+o(θ1−a)+o(θ2−b)L(\theta)=L(a,b)+\frac{\partial L(a,b)}{\partial \theta_1}...

核函数概念及简要性质理解

核函数定义  《统计学习方法》中给出的核函数的定义为:  设X\mathcal{X}X是输入空间(欧式空间Rn\mathbb {R}^nRn的子集或离散集合),H\mathcal{H}H为特征空间(希尔伯特空间),如果存在一个从X\mathcal{X}X到H\mathcal{H}H的映射ϕ(x):X→H\phi(x): \mathcal{X}\rightarrow\mathcal{H}ϕ(x...

【ML】机器学习基本任务:回归与分类(生成模型朴素贝叶斯与判别模型逻辑回归)

回归1. 模型建立模型:这里为线性模型;衡量模型好坏:损失函数;训练模型目标:最小化损失函数,优化方法求解优化问题;2. 模型评价训练集、测试集上的平均误差:主要关注测试集上的平均误差;3. 模型优化3.1 增大模型复杂度随着模型复杂度的增加,训练集上的平均误差逐渐减小,测试集上的平均误差先减小后增大,过于复杂的模型会出现过拟合现象;3.2 考虑隐变量不...

Keras Model类中的fit()与fit_generator()、predict()与predict_generator()

Keras Model类中的fit()与fit_generator()、predict()与predict_generator(),函数详细参数

北大开源中文分词工具包 pkuseg

如何使用北大开源中文分词工具包 pkuseg;pkuseg特点:分词准确率高,多领域分词,支持用户自训练模型。pkuseg与jieba、THULAC等国内代表分词工具的比较。

    共 19 条
  • 1
  • 2
  • 请选择