logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习(计算机视觉)面试问题总结 随时补充

1.如何解决梯度爆炸与消失答:1. 预训练加微调——每次训练一层隐节点,训练时将上一层隐节点的输出作为输入,而本层隐节点的输出作为下一层隐节点的输入,此过程就是逐层“预训练”;在预训练完成后,再对整个网络进行“微调”(fine-tunning)。在各层预训练完成后,再利用BP算法对整个网络进行训练。此思想相当于是先寻找局部最优,然后整合起来寻找全局最优,此方法有一定的好处,但是目前应用...

解决python-kafka连接kafka时报错kafka.errors.NoBrokersAvailable: NoBrokersAvailable

解决python-kafka连接kafka时报错kafka.errors.NoBrokersAvailable: NoBrokersAvailable_呆萌的代Ma的博客-CSDN博客

#python
Mac brew安装报错“no bottle available!“

执行以下命令,再安装就可以了。

#macos
ValueError: invalid literal for int() with base 10: '1.0' python

解决方法:a= int(float(value))。因为从label文本读出的是字符串类型,如果value是整数,如1,那么直接a= int(value)就可以了。如果value是浮点数,如1.0,那么需要先转float再转int,即a= int(float(value))...

CV_8UC1,CV_8UC2,CV_8UC3, CV_32FC3, CV_64FC3等区别

一般的图像文件格式是Unsigned 8bits,在CvMat矩阵对应的参数类型就是CV_8UC1,CV_8UC2,CV_8UC3(最后的1、2、3表示通道数,如RGB是3通道,对应CV_8UC3)。而float 是32位的,对应CvMat参数:CV_32FC1,CV_32FC2,CV_32FC3。double是64bits,对应CvMat参数:CV_64FC1,CV_64FC2,CV_64FC3

训练神经网络时,batchsize的设置方法,以达到GPU算力的充分利用

先在窗口转路径 cdC:\Program Files\NVIDIA Corporation\NVSMI 然后输入指令nvidia -smi 就会显示图右侧的信息框,那里可以看到显卡总显存和正在占用的显存数值。此外,更直接的方法就是到任务管理器 -> 性能 -> GPU0 -> 专用GPU内存,就可以看到总显存及实时占用显存。注:batchsize大小与网络复杂程度负...

通过half()把单精度float32转为半精度float16 超实用网络训练技巧 python

我在网上之前找了半天,也没找到能简洁明了地说怎么做能实现转半精度的,趁着弄清楚了,分享给大家。我们都知道N卡早就支持半精度float16的运算了。跑深度学习的时候,在不苛求精度的前提下(大多数时候都是不需要的),通过half()把单精度float32转为半精度float16,使得整个网络调用的参数量直接砍掉一半,以便运行时间大大缩短。方法:我们知道把原在cpu运行的网络放到gpu上运行...

chunk分块 python

import torcha = torch.randn(2,3)b = a.unsqueeze(2).unsqueeze(3)c,d = b.chunk(2,1) #chunk(a,b),a表示分成的块数,b=0沿横向分割,b=1沿纵向分割print(a)print(',,,,,,,,,,,,,')print(b.shape) #[2,3,1,1]print(b)print('....

报错 No module named ‘PyQt5.QtWidgets‘等

执行了pipuninstall pyqt5和pip3 uninstall pyqt5,再pip3 install pyqt5,结果PyQt5就各种报错。然后我再试了下pipinstall pyqt5,就好了。。

#qt
torch.sigmoid() 与 torch.nn.Sigmoid() 对比 python

1. torch.sigmoid()2. torch.nn.Sigmoid()只看文档,我没太看出二者的具体区别,通过以下可知得到结果自然相同,不过使用方式确实不同,我目前也没明白为啥:...

    共 18 条
  • 1
  • 2
  • 请选择