
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
1.在验证和测试代码时加入model.eval()可以打开验证开关,关闭所有的dropout等。但是在返回到训练时需要再次加入model.train()之前的训练中做了这个操作每次的测试结果就会保证一致。后来不知道发生了什么又不能一致了再加入种子2.加入seedtorch.manual_seed(seed)torch.cuda.manual_seed(seed)torch.cuda.manual_
引入scikit-learn的standarScaler来归一化对训练集进行fit_transform对测试集进行transformfrom sklearn.preprocessing import StandardScalertrain_dataset=scaler.fit_transform(train_dataset)test_dataset=scaler.transform(test_da
1.torch.cuda.empty_cache()每轮epoch后加这个代码实测没有用2.存储loss时将loss改为loss.item(),问题解决。loss_list=[]在我的代码中,在训练前建立了一个loss的list来存储每轮的loss,目的为了在N个EPOCH后绘制图像。loss = criterion(outputs, dec_outputs.view(-1).reshape(-1
训练seq2seq模型时,训练数据一般都不能刚好和batchsize成整数倍数关系。那么在每个epoch训练中,最后会剩余一组数据量<batchsize的数据。此时这些数据可能会不适合编写的网络形状,或者代码中reshape形状的部分,在rnn中还会不匹配隐状态形状。因为我的训练数据量很大,所以直接把最后一个不足batch的数据组抛弃就好。train_loader = Data.DataLo
1.在验证和测试代码时加入model.eval()可以打开验证开关,关闭所有的dropout等。但是在返回到训练时需要再次加入model.train()之前的训练中做了这个操作每次的测试结果就会保证一致。后来不知道发生了什么又不能一致了再加入种子2.加入seedtorch.manual_seed(seed)torch.cuda.manual_seed(seed)torch.cuda.manual_
训练seq2seq模型时,训练数据一般都不能刚好和batchsize成整数倍数关系。那么在每个epoch训练中,最后会剩余一组数据量<batchsize的数据。此时这些数据可能会不适合编写的网络形状,或者代码中reshape形状的部分,在rnn中还会不匹配隐状态形状。因为我的训练数据量很大,所以直接把最后一个不足batch的数据组抛弃就好。train_loader = Data.DataLo
1.解析并切分文本文件2.随机构建训练测试集3.使用贝叶斯分类算法分类4.验证结果错误率贝叶斯算法在另一篇文章中注释详细有述另,该文参照《机器学习实战》,在代码中可能由于版本原因书中正则表达式切分词时有错误,目前未解决文中有一部分为测试问题的输出函数#!/usr/bin/env python# -*- coding: UTF-8 -*-'''============================
#!/usr/bin/env python# -*- coding: UTF-8 -*-'''=================================================@Project -> File:KNN -> kNN@IDE:PyCharm@Author :zgq@Date:2021/1/7 14:15@Desc:=====================
1.先将文本语料构建为one-hot类型的词向量2.基于语料词向量组成的矩阵计算词向量中所有词在不同类别状态下出现的概率,以及不同类别的概率3.面对新词汇的时候根据贝叶斯公式求出其属于每一个类别的概率并选择最大的输出#!/usr/bin/env python# -*- coding: UTF-8 -*-'''=============================================
1.文本文件数据等等2.将其3232的二进制图像转换为11024的向量3.测试算法#!/usr/bin/env python# -*- coding: UTF-8 -*-'''=================================================@Project -> File:KNN -> kNN@IDE:PyCharm@Author :zgq@Date: