logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

图像处理之直方图均衡化及C++实现

1. 背景直方图均衡化在图像增强方面有着很重要的应用。一些拍摄得到的图片,我们从其直方图可以看出,它的分布是集中于某些灰度区间,这导致人在视觉上感觉这张图的对比度不高。所以,对于这类图像,我们可以通过直方图均衡技术,将图像的灰度分布变得较为均匀,从而使得图像对比度增大,视觉效果更佳。2. 原理直方图均衡化的作用是图像增强。有两个问题比较难懂,一是为什么要选用累积分布函数,二是为什么使用累积分布函数

#图像处理
训练技巧之数据集太多,加载太慢怎么办?

1. 背景训练集全是16x16,32x32之类的小图,达到上千万张,训练时发现数据加载很慢很慢很慢!!!看了下CPU 内存 GPU使用情况,发现CPU使用率都跑到90%去了,GPU使用率却较低2. 解决方法2.1 预处理提速尽量减少每次读取数据时的预处理操作,可以考虑把一些固定的操作,例如 resize ,事先处理好保存下来,训练的时候直接拿来用Linux上将预处理搬到GPU上加速:NVIDIA/

#深度学习#tensorflow#pytorch
深度学习图像数据增广方法总结

参考:Data Augmentation | How to use Deep Learning when you have Limited Data—Part 2文章目录1. 数据增广(Data Augmentation)2. 数据增广方法2.1 镜像(Flip)2.2 旋转(Rotation)2.3 缩放(Scale)2.4 裁剪(Crop)2.5 平移(Translation)2.6 高斯..

#深度学习#计算机视觉#神经网络
pytorch训练图像分类模型,并部署到MNN

1. Pytorch分类器网络# 定义一个简单的分类网络class SimpleNet(nn.Module):def __init__(self):super(SimpleNet, self).__init__()# 三个卷积层用于提取特征# 1 input channel image 90x90, 8 output channel image 44x44self.conv1 = nn.Seque

#pytorch#mnn#深度学习 +1
opencv 解决ippicv下载问题,离线:ippicv_2019_lnx_intel64_general_20180723.tgz

在编译opencv时,会碰到ippicv_2019_lnx_intel64_general_20180723.tgz这个文件下载超级慢的问题。那该怎么办呢?1. 手动下载ippicv_2019_lnx_intel64_general_20180723.tgz下载地址保存路径随意,我是放在默认的下载路径 ~/DownLoad/2. 修改opencv里相关配置文件# 打开终端,输入ged...

#opencv
常用神经网络画图工具

写论文的时候需要画神经网络的结构图,用PPT和VISIO之类的工具画效率会比较低。本文将介绍2种基于网页的神经网络画图工具,让结构图更加酷炫。1. NN-SVG这个工具可以非常方便的画出各种类型的图,是一位来自于麻省理工学院弗兰克尔生物工程实验室的人开发的, 该实验室开发可视化和机器学习工具用于分析生物数据。github地址:https://github.com/zfrenchee画图...

#神经网络#计算机视觉
模型压缩之知识蒸馏

模型压缩(在保证性能的前提下减少模型的参数量)成为了一个重要的问题,而”模型蒸馏“属于模型压缩的一种方法。

#机器学习#深度学习#人工智能
pytorch量化训练

可以应用到模型的特定部分或整个模型上model.fc1.qconfig = custom_qconfig # 应用到模型的一个特定层和# 应用到整个模型。

文章图片
#pytorch#人工智能#深度学习
人脸识别数据集-WebFace260M

1. 介绍本文介绍一个大规模的人脸识别数据集:WebFace260M,由 4M identities(身份)和 260M 人脸组成,为百万级深度人脸清洗和识别提供了很好的资源,如图1和Tab.1所示。又通过提纯,即所设计的可扩展高效的自训练 pipeline 对 WebFace260M 进行自动提纯,获得最大的训练集 WebFace42M,它在具有挑战性的 IJB-C 上得到新的SOTA,在 NI

#人脸识别#计算机视觉
模型压缩之知识蒸馏

模型压缩(在保证性能的前提下减少模型的参数量)成为了一个重要的问题,而”模型蒸馏“属于模型压缩的一种方法。

#机器学习#深度学习#人工智能
    共 46 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择