
简介
擅长点云和图像的检测,分割,和目标跟踪等感知算法
擅长的技术栈
可提供的服务
暂无可提供的服务
在目标检测任务中,mAP(mean Average Precision,平均精度均值)是一个非常重要的评价指标,用于衡量模型在多个类别上的平均性能。它综合考虑了模型在不同召回率下的精确率,能够全面反映模型在检测任务中的表现。综合性评估:mAP能够综合考虑模型在不同召回率下的精确率,避免了单一指标(如准确率或召回率)可能带来的片面性。多类别比较:对于多类别的目标检测任务,mAP可以计算每个类别的AP

在训练深度学习模型时,使用PyCharm的Debug模式和Run模式对训练模型的耗时会有一些区别。Debug模式:Debug模式在训练模型时,会对每一行代码进行监视,这使得CPU的利用率相对较高。由于需要逐步执行、断点调试、查看变量值等操作,Debug模式会使得训练过程更加耗时。然而,这种模式对于调试模型和查找错误非常有帮助。Run模式:Run模式在训练模型时,专注于执行训练过程,这使得GPU的利

CUcontext是CUDA(Compute Unified Device Architecture)中的一个概念,用于管理和跟踪与GPU设备的交互。它代表了一个CUDA上下文,即一个应用程序与GPU之间的通信环境。

Runtime是建立在Driver上的, 它里面的接口实际都可以拆解为Driver的接口。CUDA driver相比runtime需要做显式的device初始化, 以及context、module的管理, 这些概念在runtime中是不存在, 也是不希望用户关心的。CUDA的接口分三个层次: CUDA Library, CUDA Runtime 和CUDA Driver. 而我们的程序可以在任意一

CUDA Driver 是与 GPU 沟通的驱动级别底层 API,对 Driver API 的理解,有利于理解后续的 Runtime API。CUDA Driver 随显卡驱动发布,需要与 cudatoolkit 分开看,CUDA Driver 对应于 cuda.h 和 libcuda.so。Driver API 主要知识点是 Context 的管理机制 以及 CUDA 系列接口的开发习惯(错误检

官方下载地址为https://developer.download.nvidia.cn/compute/cuda/repos/ubuntu1804/x86_64/对应好系统版本和CPU位数,我的电脑用的是Ubuntu 18.04 + x86_64。nvidia-modprobe版本过低,与显卡驱动的版本不匹配导致的。1 下载与显卡驱动一致的nvidia-modprobe。2 安装nvidia-mo

多尺度特征图尺寸记录:spatial_shapes:([[180, 180],[ 90,90],[ 45,45],[ 23,23]])sampling_locations原本为采样点位置,范围为[0,1),为了适应F.grid_sample采样函数的用法,调整为[-1,1)分布,意思是,900个query在特征图(32,level_h,level_w)中各采样4个点,采样结果为900个对应的4个通
官方下载地址为https://developer.download.nvidia.cn/compute/cuda/repos/ubuntu1804/x86_64/对应好系统版本和CPU位数,我的电脑用的是Ubuntu 18.04 + x86_64。nvidia-modprobe版本过低,与显卡驱动的版本不匹配导致的。1 下载与显卡驱动一致的nvidia-modprobe。2 安装nvidia-mo

在PyTorch中使用多个GPU进行模型训练时,各个参数和指标之间存在一定的关系。GPU显存是限制模型训练规模的关键因素。当使用多个GPU进行训练时,每个GPU都会分配一部分显存用于存储中间变量、梯度、权重等。GPU显存的使用量取决于模型的复杂度、批量大小(batch size)以及数据类型等因素。举例:假设我们使用两个GPU(GPU 0和GPU 1)进行训练,每个GPU的显存为12GB。若批量大
