
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
色彩空间颜色通常用三个独立属性描述,这三个变量类比于三维空间坐标,直观上会形成一个空间上的区域,这块立体的区域就是色彩空间(color space)。不同的色彩空间,是这个坐标系的三个轴的用来衡量颜色的标准不同所产生的。色彩空间的基本结构主要有两大类:基本颜色空间(RGB)以及色度、亮度分离颜色空间(YUV,HSV)。通常ISP芯片都带有CSC(color space conversion)功能,

本文使用CPU来做运算,未使用GPU。

本笔记记录CNN做CIFAR100数据集的训练相关内容,代码中使用了类似VGG13的网络结构,做了两个Sequetial(CNN和全连接层),没有用Flatten层而是用reshape操作做CNN和全连接层的中转操作。由于网络层次较深,参数量相比之前的网络多了不少,因此只做了10次epoch(RTX4090),没有继续跑了,最终准确率大概在33.8%左右。

【代码】Python Opencv实践 - 图像金字塔。

【代码】Python Opencv实践 - 图像的加减乘除。

纯练手项目,只简单做了左键点击功能,也没有做左右手的判断。hand0和hand1的顺序会受到哪只手先被检测出来影响,可以再优化。使用mediapipe的手势识别模块,封装一个HandDetector,然后基于这个类做一个手势虚拟鼠标。手势用法:一只手(hand0)的食指做鼠标移动,另一只手(hand1)的食指做点击操作。鼠标的操作使用了pynput,直接用pip install pynput安装即

我们知道,相机的图像是三维世界到2D平面的一个投影。仅从这个2D图像来看,我们无法得知图像中的物体在真实物理世界中有多大,距离相机的距离有多远。那么我们有没有办法从这个2D的图片结合相机的参数获得这些信息呢?答案是有的,方法有很多种,比如双目视觉技术,可以用来恢复三维信息。如何恢复精确的3D物体?图像失真(比如镜头畸变)了如何恢复?先用数学表达式描述对相机成像过程建模,然后通过数学表达式计算恢复这

首先来看一张图,看看我们能在这个场景中找到几个光源。相信大家能够很容易看出来,四盏路灯模型带有四个光源,右边的红绿蓝三个发光的灯也是光源。场景中还有一个光源,这个光源来自天空,让场景看起来有点日落的效果。

【代码】Python Opencv实践 - 矩形轮廓绘制(直边矩形,最小外接矩形)

一旦通信开始,发送侧的协议层只要不停止传输请求,就要提供合法的数据。接收侧的协议在接收的PHY将数据送到协议层时要尽快将数据拿走。这种信号概念(此处直译,不太清楚如何解读,原文:the signaling concept)以及PHY协议的握手动作,不允许有数据节流(data throttling,个人理解类比于无线通信中的限速动作)。最小的载荷数据单元是一个字节。任意Lane上送给TX的数据、以及
