logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

cuda学习(5):使用cuda核函数加速warpaffine

放射变换(warpaffine),主要解决图像的缩放和平移来处理目标检测中常见的预处理行为。比如有一张猫的图片,对图片进行letterbox变换,将图片进行缩放,并且长边对齐,左右填充,这个时候用warpaffine就合适进行变换实现。warpaffine说明warpaffine是对图像做平移缩放旋转变换进行综合统一描述的方法warpaffine也是一个很容易实现cuda并行加速的算法。

#学习#计算机视觉#深度学习
cuda学习(2):异步任务管理——stream

流(stream)是一种基于context之上的任务管道抽象,一个context可以创建n个流;如果想要在cuda上实现高性能异步多并发,可以通过流来实现任务的异步控制。nullptr是默认流每个线程都有自己的默认流。

#学习
MediaPipe介绍

自2012年起,谷歌在内部的多个产品和服务中使用了它。它最初是为了实时分析YouTube上的视频和音频而开发的。渐渐地,它被整合到更多的产品中,比如NestCam的感知系统谷歌镜头的目标检测增强现实广告谷歌图片谷歌HomeGmail云视觉API等。MediaPipe为我们日常使用的革命性产品和服务提供动力。与资源消耗型的机器学习框架不同,MediaPipe只需要最少的资源。它是如此微小和高效,甚至

#opencv
OpenCV DNN模块在linux中如何使用NVIDIA GPU

OpenCV DNN模块,它允许运行预先训练的神经网络。该模块的主要缺点之一是其仅支持cpu推理,因为它是唯一受支持的模式。从OpenCV 4.2版本开始,DNN模块支持NVIDIA GPU使用,这意味着在其上运行深度学习网络时,CUDA和cuDNN会加速。这篇文章将帮助我们学习在支持DNN GPU的情况下编译OpenCV库,以加速神经网络推理。我们将学习使用NVIDIA gpu优化OpenCV

#opencv#dnn#计算机视觉
高效使用Vscode(C++&Python)

下载地址: https://code.visualstudio.com/download (linux / win)建议:拥有一个或者登录vscode来保存和更新自己的什么是SSH一种安全的网络协议两种连接方式Vscode 如何进行ssh连接文件传输(关于scp)其他参考: https://betterprogramming.pub/15-useful-vscode-shortcuts-to-bo

#vscode#c++#python
杀死linux进程的N种方法

软硬件环境ubuntu 18.04 64bit常规操作在linux中,我们杀死某个进程,需要知道进程号(pid)或者进程名,这样就可以通过kill命令来杀掉它。首先,我们可以通过ps ax命令来查看进程号ps ax | grep firefox我们以浏览器firefox为例(base) xugaoxiang@1070Ti:~$ ps ax | grep firefox23237 tty1Sl+0:

Yolov5更换上采样方式( 最近邻 / 双线性 / 双立方 / 三线性 / 转置卷积)

l1.2. 双线性插值(Bi-Linear interpolation)1.3. 双立方插值(Bi-Cubic interpolation)1.4 三线性插值(Trilinear Interpolation)当align_corners = True时,线性插值模式(线性、双线性、双三线性和三线性)不按比例对齐输出和输入像素,因此输出值可以依赖于输入的大小这里我将原本的最近邻插值的上采样方式替换为

文章图片
#深度学习
Vision Transformer(ViT) 1: 理论详解

Vison Transformer论文-, 论文由Google 发表于2020CVPR上。

#transformer#深度学习#人工智能
opencv 基础 (一):使用OpenCV读取、显示和写入图像

读取、显示和写入图像是图像处理和计算机视觉的基础。即使在剪切、调整大小、旋转或应用不同的过滤器来处理图像时,你也需要先读取图像。所以掌握这些基本运算是很重要的。世界上最大的计算机视觉库OpenCV有这三个内置功能,让我们来看看它们到底是做什么的:Imread()帮助我们读取图像-mshow()在窗口中显示图像imwrite()将图像写入文件目录我们将使用下图来演示这里的所有函数首先,看一看这个代码

#opencv#计算机视觉#图像处理
BatchNorm, LayerNorm, InstanceNorm和GroupNorm

Batch Norm:对NHW计算归一化参数(均值和方差),总共得到C组归一化参数, 相当于对每个channel进行归一化。BN主要缺点是对batchsize的大小比较敏感,由于每次计算均值和方差是在一个batch上,所以如果batchsize太小,则计算的均值、方差不足以代表整个数据分布Layer Norm: 对CHW计算归一化参数,得到N(batch)组归一化参数,对于Batch为1,相当于对

文章图片
#深度学习
    共 46 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择