
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
StratifiedKFold可以借用sklearn中的StratifiedKFold来来实现K折交叉验证,同时根据标签中不同类别占比来进行拆分数据的,从而解决样本不均衡问题。#!/usr/bin/python3# -*- coding:utf-8 -*-"""@author: xcd@file: StratifiedKFold-test.py@time: 2021/1/26 10:14@desc
前言本项目应用于目标检测在服务器端,没有gui界面查看实时结果的项目上。如果考虑自己用,可以直接使用flask-video-stream简易视频流搭建来进行轻量化的搭建,但是带宽开销比较大,没有使用H264等协议,720清晰度大约带宽开销15MB,现场项目上无法使用,因此切换成ffmpeg+videojs(vlc也可以,客户端查看)+python的方式实现目标检测的视频流展示。rtmp 服务器搭建
DeepSort与Sort先把两者区别写出来:Sort 算法利用卡尔曼滤波算法预测检测框在下一帧的状态,将该状态与下一帧的检测结果进行匹配,实现车辆的追踪。DeepSort中采用了一个简单的CNN来提取被检测物体(检测框物体中)的外观特征(低维向量表示),在没帧检测+追踪后,进行一次物体外观特征的提取并保存。Sort的问题:匹配的时候用的是匈牙利算法,但是当物体遮挡之后,前后帧的物体失去关联,物体
cv2 绘制轮廓cv2.findContours()注意事项mode参数method参数offset:(可选参数)返回值cv2.findContours()def findContours(image, mode, method, contours=None, hierarchy=None, offset=None):# real signature unknown; restored from
世界坐标系,相机坐标系和图像坐标系的转换
gitea部署docker 安装giteagitea整体部署在服务器上,比较麻烦,官方提供了现成的docker镜像,直接使用就可以了。简单分为三步(参考gitea官方文档)pull镜像(相当于基础镜像):docker pull gitea/gitea:latest如果要将git和其它数据持久化,你需要创建一个目录来作为数据存储的地方;然后就可以运行 docker 容器了,这很简单。 当然你需要定义
前言本项目应用于目标检测在服务器端,没有gui界面查看实时结果的项目上。如果考虑自己用,可以直接使用flask-video-stream简易视频流搭建来进行轻量化的搭建,但是带宽开销比较大,没有使用H264等协议,720清晰度大约带宽开销15MB,现场项目上无法使用,因此切换成ffmpeg+videojs(vlc也可以,客户端查看)+python的方式实现目标检测的视频流展示。rtmp 服务器搭建
选择显卡块数训练细节实时查看显卡性能训练细节在终端执行.py文件时通过CUDA_VISIBLE_DEVICES来指定:在终端运行python程序的前面指定,比如:CUDA_VISIBLE_DEVICES=1 python train.py实验效果如下:在终端运行脚本或者jupyter notebook下运行:前面加上CUDA_VISIBLE_DEVICES=1实时查看显卡性能watch -n 1
json.dumps()json.dumps将一个Python数据结构转换为JSONimport jsondata = {'name' : 'myname','age' : 100,}json_str = json.dumps(data)json库的一些用法方法作用json.dumps()将python对象编码成Json字符串json.loads()将Json字符串解码成python对象json.
YOLOv5学习总结训练效果(持续更新)前言网络结构可视化yolov3yolov4yolov5核心基础内容Mosaic数据增强自适应锚框计算自适应图片缩放首先感谢江大白大佬的研究与分享,贴上链接深入浅出Yolo系列之Yolov5核心基础知识完整讲解将yolov3-v5的变化讲的很清楚,思路很清晰,值得花时间好好从头到尾读一遍。训练效果(持续更新)先贴结果,自己试了组工牌胸牌检测(yolov5s),