logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

树莓派视觉小车 -- OpenCV巡线(HSL色彩空间、PID)

(一)、试错试错1:形态学处理一开始用的形态学处理,自行改变阈值,调试之后,进行处理,发现效果不是太好,于是改成了HSV色彩空间。试错2:HSV色彩空间之前没注意到,HSV色彩空间很难识别白色:HSV:不难看出,如果寻白色线的话,HSV色彩空间不是一个很好的选择,下面引入HSL色彩空间:HSL:所以,如果是巡白色的话,建议用HSL色彩空间。注意:巡线小车的摄像头不能太低,如果太低了,可能让小车自己

文章图片
#opencv#计算机视觉#人工智能 +2
Windows下复制内容到虚拟机下的linux系统(Ubuntu)

1、在windows下ctrl+c复制内容后,就可以把内容粘贴到Linux指定下的地方了。切换,此时光标会变成五指形状,此时再按。2、转到VM下要粘贴的地方。

文章图片
#linux#运维#服务器
OpenCV(十八)霍夫变换(直线、线段与圆检测)

一、基础理论霍夫变换(Hough Transform)是图像处理中的一种特征提取技术,它通过一种投票算法检测具有特定形状的物体。Hough变换是图像处理中从图像中识别几何形状的基本方法之一。Hough变换的基本原理在于利用点与线的对偶性,将原始图像空间的给定的曲线通过曲线表达形式变为参数空间的一个点。这样就把原始图像中给定曲线的检测问题转化为寻找参数空间中的峰值问题。也即把检测整体特性转化为检测局

文章图片
#opencv#计算机视觉
OpenCV(项目)人脸检测(图片、摄像头)

一、基础理论我们使用机器学习的方法完成人脸检测,首先需要大量的正样本图像(面部图像)和负样本图像〈不含面部的图像)来训练分类器。我们需要从其中提取特征。下图中的 Haar特征会被使用,就像我们的卷积核,每一个特征是一个值,这个值等于黑色矩形中的像素值之和减去白色矩形中的像素值之和。1、Haar分类算法Haar特征:(核)(切片)Haar特征值反映了图像的灰度变化情况。例如︰脸部的一些特征能由矩形特

文章图片
#opencv#计算机视觉#人脸识别 +2
OpenCV(25)轮廓检测(轮廓提取、属性、近似轮廓、外接矩形和外接圆)

目录一、基础理论1、轮廓概述2、cv.findContours函数(查找轮廓)3、cv.drawContours函数(画出轮廓)二、代码三、效果参考资料一、基础理论1、轮廓概述边缘和轮廓区别:边缘是零散的点,轮廓是整体。2、cv.findContours函数(查找轮廓)contours, hierarchy = cv2.findContours(img,mode,method)参数:返回:cont

文章图片
#python#opencv#人工智能 +2
OpenCV(十一)图像滤波(平滑处理)(平均、中值、高斯、双边滤波)

目录一、概念二、线性滤波1、概述2、线性滤波原理:三、滤波实例1、均值滤波(cv::blur())(简单滤波)2、中值滤波(cv::medianBlur())3、高斯滤波(cv::GaussianBlur())4、双边滤波(cv::bilateralFilter())参考资料一、概念“平滑”通常又称“模糊”,是一种简单常用的图像处理操作。进行平滑处理的原因有很多,但通常是用来去除噪声和相机失真,平

文章图片
#c++#opencv#计算机视觉 +2
数据结构与算法(7-4)最短路径(迪杰斯特拉(Dijkstra)算法、弗洛伊德(Floyd)算法)

一、最短路径概念最短路径,顾名思义,两结点之间最短的路径(可以是非邻接结点)。最小生成树和最短路径区别:最小生成树:连通图的最短路径。最短路径:两任意结点之间(可以非邻接)的最短路径。二、迪杰斯特拉(Dijkstra)算法优点:效率较高,时间复杂度为O(n^2)。缺点:只能求一个顶点到所有顶点的最短路径。 (单源最短路)1、原理1、先选定一个根结点,并选定一个数组,先确定未遍历前的初始距离,把距离

文章图片
#算法#数据结构#c++ +2
OpenCV(十五)边缘检测1 -- Sobel算子(一阶微分算子,X、Y方向边缘检测)

目录一、基础理论二、实战1、对x方向微分2、对y方向微分3、线性混合总代码参考资料一、基础理论Sobel算子:用于边缘检测的离散微分算子。梯度公式:对于图像而言,它是离散的,所以h的最小值只能是1了,那么这意味着,图像中某个像素位置的梯度(以x方向为例)等于它左右两个像素点的像素之差除以2。例:假设有一行像素是这样分布的:123 155 173那么,像素值为155的像素位置x方向的梯度为(173

文章图片
#c++#opencv#计算机视觉 +2
TensorFlow(4)自实现线性回归

目录API一、准备数据(初始化随机数)二、获取真实值三、获取预测值1、获取随机的权重和偏置2、 获取预测值四、构造损失函数五、梯度下降优化六、会话(执行)做1次训练:做10次训练:做100次训练:做1000次训练:总代码API一、准备数据(初始化随机数)这里我们设置的函数模型:y = weight*x + biasweight = 0.8bias = 0.7初始化[100,1]的随机数:# 初始化

文章图片
#tensorflow#深度学习#神经网络 +1
暂无文章信息