logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

python中执行py文件出错(提示File “<stdin>”,line 1,SyntaxError:invalid syntax)

python中执行py文件出错(提示File “<stdin>”,line 1,SyntaxError:invalid syntax)解决办法:上图中已通过输入python进入了python运行环境,出现>>>时候的不能再用python z.py 来运行hello.py文件;应该通过exit()退出当前python运行环境,然后再输入python hello.py来运

#tensorflow#深度学习#机器学习
linux系统下yolov4安装

当作笔记首先是python(感觉第一次就是因为用anaconda默认安装的3.8版本,然后numpy和opencv装不上去,后面又卸载python,导致系统崩了)这里用的python3.6版下面是链接https://www.python.org/downloads/source/然后是tar -zxvf Python-3.6.12.tgz(对源码进行解压)cd Python3.6.12./conf

#深度学习
如何理解Adam算法(Adaptive moment estimation)?

作者:薰风初入弦链接:https://www.zhihu.com/question/323747423/answer/790457991来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。文章和论文看不懂,通常有三个原因:对前置知识掌握不佳没有结合理论与实践没有对知识形象理解Adam本质上实际是RMSProp+动量。但如果你对随机梯度下降SGD的知识,以及Adam之前的几

#深度学习
scheduler:pytorch训练过程中自动调整learning rate

import torch.optim as optimoptimizer = optim.Adam(net.parameters(), lr=1e-3, betas=(0.9, 0.99))在使用PyTorch训练神经网络时,可能需要根据情况调整学习率(learning rate)这个在梯度下降中的重要参数。PyTorch提供了scheduler工具包帮助实现这一功能。1. 通过写明学习率关于迭代

#深度学习
优化器(SGD、SGDM、Adagrad、RMSProp、Adam等)

1.1 SGDSGD全称Stochastic Gradient Descent,随机梯度下降,1847年提出。每次选择一个mini-batch,而不是全部样本,使用梯度下降来更新模型参数。它解决了随机小批量样本的问题,但仍然有自适应学习率、容易卡在梯度较小点等问题。1.2 SGDMSGDM即为SGD with momentum,它加入了动量机制,1986年提出。如上所示,当前动量V由上一次迭代动量

#深度学习
CSPDarkNet

1 YOLOv4目标检测模型自从Redmon说他不在更新YOLO系列之后,我一度以为这么好用的框架就要慢慢淡入历史了,事实是我多虑了。YOLOv4在使用YOLO Loss的基础上,使用了新的backbone,并且集成了很多新的优化方法及模型策略,如Mosaic,PANet,CmBN,SAT训练,CIoU loss,Mish激活函数,label smoothing等等。可谓集SoAT之大成,也实现了

#神经网络#深度学习
量化模型每一层的细节参数

之前按照以下方法成功得到了模型结构信息pythonparam = fluid.global_scope().find_var(param_name)if param is not None:param_in_numpy = np.array(param.get_tensor())那有没有方法可以得到每一层的参数值呢?(比如权重参数,量化参数的具体数值)从inference模型文件(model和pa

#深度学习
CUDA与cudatoolkit

CUDA Toolkit是NVIDIA的CUDA工具包,包含了CUDA的全部工具。conda安装的cudatoolkit是CUDA的一个子包,包含了主要的二进制文件。一般conda安装的pytorch tensorflow会直接调用conda环境中的包,而如果使用pip安装的tensorflow不会自动接入conda中的cudatoolkit,进而会报ImportError: libcudart.

#人工智能#python
到底了