logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【图像轮廓特征查找】图像处理(OpenCV) -part8

是能够完全包含目标轮廓的最小面积的矩形,它允许矩形相对于图像坐标轴旋转,因此可以更好地贴合轮廓的形状,相比普通外接矩形(轴对齐的外接矩形),它可以更精确地描述轮廓的形状和方向。其基本原理是通过计算轮廓点集的最小面积矩形,这个矩形的边不一定与图像坐标轴对齐。它需要找到一组四个点,使得这四个点构成的矩形能够包含所有轮廓点,并且面积是所有可能的包含该轮廓的矩形中最小的。

文章图片
#图像处理#opencv#人工智能
【图像亮度变换 形态学变化】图像处理(OpenCV)-part12

膨胀与腐蚀刚好相反,膨胀操作就是使用核在原图(二值化图)上进行从左到右、从上到下的滑动(也就是从图像的左上角开始,滑动到图像的右下角),在滑动过程中,令核值为1的区域与被核覆盖的对应区域进行相乘,得到其最大值,该最大值就是核覆盖区域的中心像素点的新像素值,接着继续滑动。下面我们来说一下核、腐蚀与膨胀的概念。原图像与“开运算“的结果图之差,因为开运算带来的结果是放大了裂缝或者局部低亮度的区域,因此,

#图像处理#opencv#人工智能
[欠拟合过拟合]机器学习-part10

鲁棒是Robust 的音译,也就是强壮的意思。就像计算机软件在面临攻击、网络过载等情况下能够不死机不崩溃,这就是软件的鲁棒性,鲁棒性调优就是让模型拥有更好的鲁棒 性,也就是让模型的泛化能力和推广能力更加的强大。我们都知道人工智能中回归是有误差的,为了把误差降低而拟合出来的一个接近真实的公式,比如把一个测试数据[10,20]带入计算得到的值跟真实值会存在一定的误差,但是。如果更新后的系数向量减去之前

文章图片
#机器学习#人工智能
【深度学习】神经网络 批量标准化-part6

是一种广泛使用的神经网络正则化技术,对每一层的输入进行标准化,进行缩放和平移,目的是加速训练,提高模型稳定性和泛化能力,通常在全连接层或是卷积层之和,激活函数之前使用核心思想对每一批数据的通道进行标准化,解决内部协变量偏移加速网络训练;运行使用更大的学习率;减少对初始化的依赖;提供轻微的正则化效果思路:在输入上执行标准化操作,学习两可训练的参数:缩放因子γ和偏移量β批量标准化操作 在训练阶段和测试

#深度学习#神经网络#人工智能
【Unity】JSON数据的存取

这段代码的结构是为了实现,特别是在 Unity 中保存和加载玩家数据时。

#unity#json#windows
[欠拟合过拟合]机器学习-part10

鲁棒是Robust 的音译,也就是强壮的意思。就像计算机软件在面临攻击、网络过载等情况下能够不死机不崩溃,这就是软件的鲁棒性,鲁棒性调优就是让模型拥有更好的鲁棒 性,也就是让模型的泛化能力和推广能力更加的强大。我们都知道人工智能中回归是有误差的,为了把误差降低而拟合出来的一个接近真实的公式,比如把一个测试数据[10,20]带入计算得到的值跟真实值会存在一定的误差,但是。如果更新后的系数向量减去之前

文章图片
#机器学习#人工智能
[sklearn机器学习概述]机器学习-part3

获取数据、数据处理、特征工程后,就可以交给预估器进行机器学习,流程和常用API如下。1.实例化预估器(估计器)对象(estimator), 预估器对象很多,都是estimator的子类(1)用于分类的预估器sklearn.neighbors.KNeighborsClassifier k-近邻sklearn.naive_bayes.MultinomialNB 贝叶斯sklearn.linear_mo

#机器学习#sklearn#人工智能
【霍夫变换】图像处理(OpenCV)-part11

参数空间中,相交在一点的直线越多,说明在直角坐标系中,有越多的点构成直线。累加器值表示有多少个点共线。通过寻找参数空间中累加器值的局部极大值,可以检测出直角坐标系中的直线。然而对于x=1这种直线(垂直于x轴)来说,y已经不存在了,斜率无穷大,无法映射到霍夫空间中去,那么就没办法使用上面的方法进行检测了,为了解决这个问题,我们就将。

#图像处理#opencv#人工智能
【图像轮廓特征查找】图像处理(OpenCV) -part8

是能够完全包含目标轮廓的最小面积的矩形,它允许矩形相对于图像坐标轴旋转,因此可以更好地贴合轮廓的形状,相比普通外接矩形(轴对齐的外接矩形),它可以更精确地描述轮廓的形状和方向。其基本原理是通过计算轮廓点集的最小面积矩形,这个矩形的边不一定与图像坐标轴对齐。它需要找到一组四个点,使得这四个点构成的矩形能够包含所有轮廓点,并且面积是所有可能的包含该轮廓的矩形中最小的。

文章图片
#图像处理#opencv#人工智能
到底了