logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【目标检测】Faster RCNN学习笔记

背景R-CNN计算成本很高,但是各种推荐中共享卷积,成本已经大大降低,然而其训练过程和测试依然非常慢R-CNN方法端到端地对CNN进行训练,将推荐区域分类为目标类别或背景;R-CNN主要作为分类器,并不能预测目标边界,其准确度取决于区域推荐模块的性能在OverFeat方法中,训练一个全连接层来预测假定单个目标定位任务的边界框坐标,然后将全连接层变成卷积层,用于检测多个类别的目标Multi...

《机器学习实战》 第八章【预测数值型数据:(线性)回归】

目录算法简述优缺点回归的一般方法线性回归:1.标准线性回归(LR)2.局部加权线性回归(LWLR)3.岭回归4.lasso5.前向逐步回归算法简述优缺点优点:结果易于理解,计算上不复杂缺点:对非线性的数据拟合不好使用数据类型:数值型和标称型回归的一般方法收集数据:任意方法准备数据:数值型,标称型转二值型分析数据:可视化二维图训练算法:找回归系数测试算法:R2或其他使用...

PyTorch量化实践(1)

翻译来源https://pytorch.org/blog/quantization-in-practice/量化是一种廉价而简单的方法,可以使深度神经网络模型运行得更快,并具有更低的内存需求。PyTorch提供了几种量化模型的不同方法。在这篇博客文章中,我们将(快速)为深度学习中的量化奠定基础,然后看看每种技术在实践中是怎样的。最后,我们将以文献中关于在工作流程中使用量化的建议作为结束。量化原理如

#pytorch#深度学习#python
PyTorch 模型剪枝实例教程三、多参数与全局剪枝

目录1.导包&定义一个简单的网络2.多参数剪枝3.全局剪枝4.总结目前大部分最先进的(SOTA)深度学习技术虽然效果好,但由于其模型参数量和计算量过高,难以用于实际部署。而众所周知,生物神经网络使用高效的稀疏连接(生物大脑神经网络balabala啥的都是稀疏连接的),考虑到这一点,为了减少内存、容量和硬件消耗,同时又不牺牲模型预测的精度,在设备上部署轻量级模型,并通过私有的设备上计算以保证

#深度学习#pytorch#人工智能
深度学习模型压缩与加速技术(二):参数量化

目录总结参数量化参数量化定义参数量化特点1.二值化二值化权重二值化权重与激活函数2.三值化3.聚类量化4.混合位宽手工固定自主确定训练技巧参考文献深度学习模型的压缩和加速是指利用神经网络参数的冗余性和网络结构的冗余性精简模型,在不影响任务完成度的情况下,得到参数量更少、结构更精简的模型。被压缩后的模型计算资源需求和内存需求更小,相比原始模型能够满足更加广泛的应用需求。在深度学习技术日益火爆的背景下

#深度学习#pytorch#人工智能
【手写汉字识别】基于深度学习的脱机手写汉字识别技术研究

写在前面最近一段时间在为本科毕业设计做一些知识储备,方向与手写识别的系统设计相关,在看到一篇2019年题为《基于深度学习的脱机手写汉字识别技术研究》的工学硕士论文后,感觉收获比较大,准备把自己的总结和一些想法记录下来,本篇文章只记录本人感兴趣部分一、发展1966年,IBM 公司R.Casey、G.Nagy发表了关于印刷汉字识别的论文,使用方法是模板匹配,1000个汉字1977年,日本东芝...

深度学习模型压缩与加速技术(四):参数共享

文章目录总结参数共享定义特点1.循环矩阵2.聚类共享3.其他方法参考文献深度学习模型的压缩和加速是指利用神经网络参数的冗余性和网络结构的冗余性精简模型,在不影响任务完成度的情况下,得到参数量更少、结构更精简的模型。被压缩后的模型计算资源需求和内存需求更小,相比原始模型能够满足更加广泛的应用需求。在深度学习技术日益火爆的背景下,对深度学习模型强烈的应用需求使得人们对内存占用少、计算资源要求低、同时依

#pytorch#深度学习#人工智能
PyTorch 模型剪枝实例教程二、结构化剪枝

目录1.导包&定义一个简单的网络2.获取网络需要剪枝的模块3.模块结构化剪枝(核心)4.总结目前大部分最先进的(SOTA)深度学习技术虽然效果好,但由于其模型参数量和计算量过高,难以用于实际部署。而众所周知,生物神经网络使用高效的稀疏连接(生物大脑神经网络balabala啥的都是稀疏连接的),考虑到这一点,为了减少内存、容量和硬件消耗,同时又不牺牲模型预测的精度,在设备上部署轻量级模型,并

#pytorch#深度学习#人工智能
    共 48 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择