logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Optuna — 超参自动化调整利器 学习笔记

https://zhuanlan.zhihu.com/p/259993570

深度学习 ——回归预测Tips

深度学习 ——回归预测Tips预测增减偏移量比直接预测数值更容易,预测比值比直接预测数值更容易。从起始处预测,使用sigmoid(0,1)/relu(0,1),sigmoid函数更倾向于预测0。从中间处预测,使用tanh(-1,1)...

#深度学习#tensorflow
强化学习算法介绍

强化学习算法介绍对比学习一:sarsaQ-learningDQNpolicy gradientDDPGActor-CriticSoft Actor-CriticA3CPPO离散:DQN连续:DDPG

TensorFlow. ——数据读取方式

TensorFlow.——数据读取方式tensortlfow数据读取有三种方式:placehold feed_dict:从内存中读取数据,占位符填充数据queue队列:从硬盘读取数据Dataset:同时支持内存和硬盘读取数据placehold feed_dict:这是一种常见的方法,在这里不多作讨论,但注意的是,在tensorflow里对数据进行预处理会提高效率。queue队列:如果我们的数据读取

深度学习多进程加速

深度学习多进程加速tensorflow推理不能在进程或线程里跑,但前后预处理可以通过多进程加速。需要注意的时,进程开启会有上下文问题, 一个进程里的改变的值或变量,在另一个进程里没有,需要用队列传递消息。...

Optuna — 超参自动化调整利器 学习笔记

https://zhuanlan.zhihu.com/p/259993570

pytorch 中detach() 和 with torch.no_grad()和eval()

detach()和torch.no_grad()都可以实现相同的效果,只是前者会麻烦一点,对每一个变量都要加上,而后者就不用管了:- detach() 会返回一个新的Tensor对象,不会在反向传播中出现,是相当于复制了一个变量,将它原本requires_grad=True变为了requires_grad=False- torch.no_grad() 通常是在推断(inference)的时候,用来

Pytorch ——Tensor与PIL相互转换

Pytorch——Tensor与PIL相互转换PIL_to_Tensor主要利用torchvision库,它是pytorch的一个图形库,torchvision.transforms主要是用于常见的一些图形变换。主要运用ToTensor()方法转为tensor,并把灰度范围从0-255变换到0-1之间,还可以运用其它一系列方法,如:transform.Normalize(mean,std)可以进行

#深度学习#计算机视觉
python ——使用正则化去除标点符号

python ——使用正则化去除标点符号在进行文本预处理时,可以使用正则化去掉文本中的标点符号。re.sub(pattern, repl, string, count=0, flags=0)去除掉一般符号代码如下:r = "[A-Za-z0-9_.!+-=——,$%^,。?、~@#¥%……&*《》<>「」{}【】()/]"sentence = re.sub(r, ' ', se

#python#正则表达式
git 错误 Reinitialized existing Git repository

git 错误 Reinitialized existing Git repository方法一:删除git,重新初始化,连接远程方法二:远程重新拉取

到底了