
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
前面扯了很多,不过大多都是在讲CUDA 在软体层面的东西;接下来,虽然Heresy 自己也不熟,不过还是来研究一下硬体的部分吧~毕竟要最佳化的时候,好像还是要大概知道一下相关的东西的。这部分主要参考资料是:[Hotball'sHive]GPU 的硬体架构Programming Massively Parallel Processors的Lecture7在研究硬体架构前,
1、其中cudnn是一个常见的神经网络层加速库文件,其能够很大程度的把加载到显卡上的网络层数据进行优化计算。cuda就像一个傻大粗的加速库,其主要是依靠的是显卡计算速度跟一些算法的优化,而且其也是进行显卡加速的入口。所以cudnn需要在有cuda的基础上进行。2、下面是一些例子测试,从实际上可以看出cudnn可以在cuda基础上加速两倍以上:使用cuda但是没有使用cudnn:
1、其中LRN就是局部响应归一化:这个技术主要是深度学习训练时的一种提高准确度的技术方法。其中caffe、tensorflow等里面是很常见的方法,其跟激活函数是有区别的,LRN一般是在激活、池化后进行的一中处理方法。 AlexNet将LeNet的思想发扬光大,把CNN的基本原理应用到了很深很宽的网络中。AlexNet主要使用到的新技术点如下。(1)成功使用R
深度学习里神奇的1*1卷积核这里主要介绍下1*1卷积核的神奇之处核最好的使用范围,在开始之前需要了解下卷积网络的权值共享概念,其中权值共享基本上有两种方法:在同一特征图和不同通道特征图都使用共享权值,这样的卷积参数是最少的,例如上一层为30*30*40,当使用3*3*120的卷积核进行卷积时,卷积参数为:3*3*120个.(卷积跟mlp有区别也有联系一个神经元是平面排列,一个是线性排列)第二种只
1、其中Retinex算法具有的功能:动态范围压缩(即滤掉了低频部分,提取了高频)、色调再现(即还有图像色彩); 其中这个算法里使用了log对数域,这个主要原因不是为了扩展低灰度值,压缩高灰度值,而是为了避免负值的灰度值。是因为原图像直接减去滤波后的图像,可能会出现负值,处理麻烦,如果是装换到对数域的话,虽然相减也会有负值,但是在进行反对数变换的时候就一定是正值。下面的是多尺度Ret
采用结构光进行扫描检测时,需要提取激光条纹的中心线,本文采用经典的Steger算法提取光条中心。Steger算法原理Steger算法基于Hessian矩阵,能够实现光条中心亚像素精度定位:首先通过Hessian矩阵能够得到光条的法线方向,然后在法线方向利用泰勒展开得到亚像素位置。对于图像中激光条纹上的任意一点(x,y)(x,y),Hessian矩阵可以表示为:H(x,y)=[rxxrxyrxyry
一.导入flask项目File-Open选择需要导入flask项目(如项目名为flasky)。二.设置解释器File-Settings-Project Interpreter,如下图所示三.添加Flask server1.点击pycharm右上角的Add Configuration2.点击+号,选择Flask Server3.填写参数4.运行项目点击pycharm右上角的运行按钮:在浏览器中输入访
onnx是Facebook打造的AI中间件,但是Tensorflow官方不支持onnx,所以只能用onnx自己提供的方式从tensorflow尝试转换Tensorflow模型转onnxTensorflow转onnx, onnx官方github上有提供转换的方式,地址为https://github.com/onnx/tutorials/blob/master/tutorials/OnnxTens..
前言缺陷检测是工业上非常重要的一个应用,由于缺陷多种多样,传统的机器视觉算法很难做到对缺陷特征完整的建模和迁移,复用性不大,要求区分工况,这会浪费大量的人力成本。深度学习在特征提取和定位上取得了非常好的效果,越来越多的学者和工程人员开始将深度学习算法引入到缺陷检测领域中,下面将会介绍几种深度学习算法在缺陷检测领域中的应用。A fast and robust convolutional ne...
1、basnet边缘注意力分割网络原理介绍:basnet主要使用了一个Residual Refinement Module跟SSIM loss,其解码网络主要有7个输出,然后通过Residual Refinement Module进行输出一个,总共有8个输出,他们的输出W H大小跟输入数据的W H一样。basnet网络其目标分割效果很好,除了使用上面的RRM网络结构外还有一个是使用了SSIM lo







