
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
(深度学习补充:神经网络的卷积核就是用来特征提取的,卷积核就像是人类的眼睛,每个卷积提取的图片就叫特征图,多个卷积核就会提取多个特征图,损失函数计算预测值和真实值误差,通过反向传播和优化器更新权重,从而更新卷积核,特征图就会发生变化,当输出结果和真实结果误差在可接受范围内的时候,那就代表特征提取正确了,模型学习到的是有效的)NLP,自然语言处理,和机器学习一样是人工智能的一个领域,如果说机器学习是
这里其实就相当于搭建网络,和之前定义cnn类一个性质,加载好别人训练好的模型之后,就要把所有层w权重修改权限全部冻结,然后对最后一层(也就是我们要训练的那一层进行修改),原模型的输出是1000个神经元,但是我们食物分类里面拢共是20个类别,所以这里我们设置为20。上面是我们利用神经网络进行分类,除此之外神经网络也能进行回归,回归问题预测一般都是连续值,一般我们进行分类对训练的模型评估标准是召回率,
这些搜索引擎其实是一个巨大的爬虫系统,根据公开的域名爬取网页,提取网页中的关键词,形成一个自己的索引数据库,当我们输入搜索内容的时候,就先会在其数据库中搜索,然后再按照相关性排序呈现给我们。第0篇就是第一篇,但是第一个词并不是该篇文章的第一个词,而是整个语料库的中的第一个值,也就是我们第二个输出,第一个词就是'document',在代码中提到的稀疏矩阵,可以观察第一个输出的内容,只存该篇文章出现的
cv2.CHAIN_APPROX_SIMPLE:压缩模式,只保留该方向的终点坐标,例如一个矩形轮廓只需4个点来保存轮廓信息。cv2.RETR_CCOMP:返回所有的轮廓,只建立两个等级的轮廓。而对象内部中空洞的轮廓为第2级组织结构,空洞中的任何对象的轮廓又是第1级组织结构。CV2.RETR_LIST:检测的轮廓不建立等级关系,所有轮廓属于同一等级。Cv2.RETR_TREE:返回所有的轮廓,建立一
然后可以看见github上有pr,然后创建一个pr请求,手动解决冲突然后合并分支删除分支,在本地执行回到原先状态。找到要删除的分支 → 点击右侧「⋯」→ 选择「Delete branch」;打开仓库页面 → 点击顶部「Code」→ 右侧「Branches」;确认删除即可(如果分支被保护,会提示无法删除)。需要现在本地进行先执行merge一下。批量删除本地已合并的分支。
函数三:统计某个文本在列表中出现的次数,输出参数有两个,第一是我们需要查的文本,第二个是我们查找的列表。定义控制警报器的命令,后续用来发送指令。说白了,这个函数的作用就是每隔30分钟自动重启一次摄像头(time.sleep(1800)),防止摄像头长时间运行出现卡死,掉帧,无响应等问题,定期重启可以释放内存资源,重置摄像头状态,避免程序崩溃,。函数四:计算OCR识别框的面积,输入就是OCR识别的四
out = net.forward()是执行神经网络的前向传播,输入数据经过网络各层计算,out是模型的原始输出,通常是多位数组,这里out是四维的B*C*H*W(B: batch图像数量(通常为1),C: channels通道数,H: height高度,W: width宽度)这里我们是对单张图片进行处理,批处理这个维度是不必要的为了后续方面所以这里我们转化为三维。结果转置一下数组(C,H,W)转
数据处理与投票机制,list_zong1,3次识别的原始结果(被装饰器控制),过滤掉只出现1次的结果(可能是误识别),set_bing替换掉易错的字符,然后取历史结果中出现最多的编码。摄像头2:3帧识别一次,一秒15帧,所以是5次每秒,摄像头3和摄像头2一样,这是。违规处理,触发报警,显示界面上的警告图标,触发报警器闪光,5000ms=5s,5秒后自动隐藏警告,关闭报警器。触发OCR识别,这里摄像
这里我们要介绍一下置信度的含义,置信度和准确率是不一样的。但是置信度高并不代码预测就是对的,置信度是模型训练之后,有一套自己的判断规则之后,进行预测一个新数据,他会有几个预测的结果,其中模型觉得哪个可能性最大就会输出哪个,所以置信度高只是模型自以为的可能性最大的结果。注意,这里我们的文件要在同目录下,上面也有说过,意思就是 下面这样,我们在1人脸识别这个代码中使用到了这个文件,如果直接写这个cv2
接收来自客户端的信息,24小时运行将模型部署起来对图片进行识别将识别结果返回给客户端# 读取图像文件# 预处理图像@app.route("/predict", methods=["POST"]):装饰器,将URL路径"/predict"与predict函数关联,并指定只处理POST请求data = {"success": False}:初始化返回数据,success默认为False。







