
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
上一篇中已经总结了RNN的原理,传送门:https://blog.csdn.net/wenqiwenqi123/article/details/80704528本文讲解一下GRU的原理,GRU对于RNN中的梯度消失有很大帮助。GRU即Gated Recurrent Unit。前面说到为了克服RNN无法很好处理远距离依赖而提出了LSTM,而GRU则是LSTM的一个变体,当然LSTM还有有很多其他的变
众所周知,在机器学习深度学习领域,合理划分训练集验证集和测试集是很重要的,本文主要介绍如何划分。过去,人们运用机器学习传统方法的时候,一般将训练集和测试集划为7:3.若有验证集,则划为6:2:2. 这样划分确实很科学,当数据量不大的时候(万级别及以下)。但到了大数据时代,数据量陡增为百万级别,此时我们不需要那么多的验证集和训练集。假设有100W条数据,只需要拿出1W条来当验
最近在弄支付宝、微信支付等的事,发现这两家的文档都写得很差,demo也让人看的云里雾里。所以写篇博客,来尽量减少后来的同学走的弯路。首先,若是要做app支付的话,在微信第三方平台申请APP,若是安卓的话上传你的keystore和包名,ios上传bundle id,微信会生成相应的签名。然后前往微信商户平台,拿到要做支付必要的各种id和密钥。请看以下配置代码:package co
对计算机视觉与深度学习有所了解的同学应该知道图像卷积可以识别出物体,在神经网络的前几层,识别出物体最基础的例如垂直或是水平的边缘。在之后的隐藏层慢慢可以识别出物体的部分,直到最后几层可以识别出完整的物体。本篇文章主要介绍卷积层为何可以检测出这些。先介绍一个概念,过滤器:这是一个3*3的过滤器,是一个矩阵,数值如上所示,一会介绍这是干嘛用的。假设我们有一个6*6的灰度图像:
很多时候我们在gpu上训练一个模型,但是在inference的时候不想使用gpu。或者想在别的gpu上使用,那么怎么办呢?需要在load的时候就选择device。保存了模型的参数(model.state_dict())到文件model.pth中。1、cpu->cpu 或gpu->gpu这种情况是最简单的:checkpoint = torch.load('model...
解决报错RuntimeError: Attempting to deserialize object on CUDA device 2 but torch.cuda.device_count() is 2. Please use torch.load with map_location to map your storages to an existing device.
众所周知,在机器学习深度学习领域,合理划分训练集验证集和测试集是很重要的,本文主要介绍如何划分。过去,人们运用机器学习传统方法的时候,一般将训练集和测试集划为7:3.若有验证集,则划为6:2:2. 这样划分确实很科学,当数据量不大的时候(万级别及以下)。但到了大数据时代,数据量陡增为百万级别,此时我们不需要那么多的验证集和训练集。假设有100W条数据,只需要拿出1W条来当验
首先介绍线性核函数的概念:就是没有核函数,用θ0+θ1*X1+θ2*X2+...θn*Xn进行分类。假设有数据有n个特征,m条数据:则当n很大,m很小的时候,用线性核函数。n很小,m很大的时候,用高斯核函数。选择高斯核函数的时候需要调整参数δ,如果δ的平方很大,那么你就有可能得到一个较大的误差、较低方差的分类器。但是如果σ 的平方很小,那么你就会有较大的方差,较低误差的分类器。 正常情况下就使用以
众所周知,在机器学习深度学习领域,合理划分训练集验证集和测试集是很重要的,本文主要介绍如何划分。过去,人们运用机器学习传统方法的时候,一般将训练集和测试集划为7:3.若有验证集,则划为6:2:2. 这样划分确实很科学,当数据量不大的时候(万级别及以下)。但到了大数据时代,数据量陡增为百万级别,此时我们不需要那么多的验证集和训练集。假设有100W条数据,只需要拿出1W条来当验
本篇文章介绍SVM如何选择标记点,以及引入核函数后的损失函数。若是还没理解核函数及高斯核函数的同学可以看看上一篇:http://blog.csdn.net/wenqiwenqi123/article/details/79313876给定m个样本(x1,y1)、(x2,y2).....(xm,ym).最好的标记点选择就是把所有样本都当做标记点。将标记点记为l1、l2...







