
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
安装opencv4 在Ubuntu比较简单,几步就行:(1)sudo apt-get install build-essentialsudo apt-get install build-essential(2)sudo apt-get install cmake git libgtk2.0-dev pkg-config libavcodec-dev libavformat-dev libswsca
apex可以在深度学习训练的时候使用自动混合精度(amp)apex安装直接使用pip install apm能够安装但是不能使用直接使用源码安装就行git clone https://github.com.cnpmjs.org/NVIDIA/apex.gitcd apexpython setup.py install这样就可以使用apex了...
opencv可以加载很多主流的深度学习模型,比如caffe、onnx、TFcv::dnn::readNetcv::dnn::readNetFromCaffecv::dnn::readNetFromDarknetcv::dnn::readNetFromONNXcv::dnn::readNetFromTensorflowcv::dnn::readNetFromTorchcv::dnn::readNet
还记得在这篇文章,我们提到了cv::dnn::readNetFromModelOptimizer可以读取深度学习模型,但是当时并未使用,这个函数可以直接读取openvino格式的模型,我们可以先去下载一个人脸检测的模型。现在我们直接使用,和之前使用没啥区别,只是模型文件变成了xml和bin文件,使用代码如下:#include<iostream>#include<opencv2/c
nni是微软开源出来的一个自动机器学习框架可以使机器学习调参更加便利安装非常简单,使用pip就行pip install nni本次使用的是最新的版本,2.0不过此时并不能使用,因为会出现:https://github.com/microsoft/nni/issues/3276解决也很简单,直接将ruamel.yaml改成ruamel_yaml将下面路径下的内容进行编辑修改即可vim /opt/AN
JAX是CPU、GPU和TPU上的NumPy,具有出色的自动差异化功能,可用于高性能机器学习研究。这是官方的解释我今天就来试一试到底多快。我在同一台bu带gpu的机器上进行试验import numpy as npimport timex = np.random.random([5000, 5000]).astype(np.float32)st=time.time()np.ma...
之前写过一篇关于tensorrt的:tensorrt在不同batchsize下的性能对比模型还是使用的这篇文章的模型,只是将其转换成了openvino模型了,然后使用benchmark进去测试benchmark要想使用需要自己进行编译:https://blog.csdn.net/zhou_438/article/details/112974101然后就可以进行测试了举个具体的例子,下面的命令是ba
onnx、openvino和mnn都是作为cpu推理的框架,推理速度这里进行对比一下模型使用的python版openvino使用这篇 文章onnx文件对比代码如下:from openvino.inference_engine import IECoreimport onnxruntimeimport MNNimport numpy as npimport cv2import timemodel="
原生的torch是float32的,我们可以借鉴模型量化的思想将其变成float16,而且pytorch自身就定义了半精度的tensor假设我训练的一个模型为model,我们在运算的时候直接将模型转成半精度的模型,怎么做的呢?直接使用model.half()就行model.half()model.cuda()假设我们有个float32的tensor的变量img,为了使用半精度的模型,同样需要将其输
ffmpeg默认是使用cpu版的但是机器上有gpu,又不能不充分利用gpu进行加速安装之前需要准备其他环境:(1)cmakeapt install cmake(2)x265_2wget http://ftp.videolan.org/pub/videolan/x265/x265_2.6.tar.gztar -xvf x265_2.6.tar.gzcd x265_v2.6/build/linux/s