logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Sparse4D系列算法:迈向长时序稀疏化3D目标检测的新实践

本文探讨了自动驾驶视觉感知系统中多摄像头融合的两种范式:后融合与BEV特征融合。BEV方法虽为主流,但存在感知范围、精度与效率难以平衡的问题,且无法直接处理2D感知任务。针对BEV的局限性,作者提出纯稀疏融合感知算法Sparse4D系列,通过改进Query构建、特征采样和时序融合等机制,在nuScenes检测任务中达到SOTA效果,超越了BEVFormer等稠密方法。文章详细介绍了Sparse4D

文章图片
#算法#目标检测#人工智能
点云常见数据处理

1. .pcd->.bin转换成kitti格式的点云文件:import osimport numpy as npimport firedef read_pcd(filepath):lidar = []with open(filepath,'r') as f:line = f.readline().strip()while line:linestr = line.split(" ")if

文章图片
#python#自动驾驶#算法 +1
OpenCV显示中文(python)

OpenCV添加文字的方法putText(…),添加英文是没有问题的,但如果你要添加中文就会出现“???”的乱码,需要特殊处理一下。下文提供封装好的(代码)方法,供OpenCV添加中文使用。

文章图片
#opencv#人工智能#计算机视觉
【教程】PyTorch多机多卡分布式训练的参数说明 | 附通用启动脚本

torchrun 是 PyTorch 官方推荐的分布式训练启动器,它的作用是:启动多进程分布式训练(支持多 GPU,多节点)自动设置每个进程的环境变量协调节点之间建立通信。

#pytorch#分布式#人工智能
lcm安装c++和python版本,不同编程语言之间相互通信

ubuntu2.从github上下载源码3.若想安装python版本:examples下关于types, cpp, python的文件结构如下:4.在cpp目录下运行命令5.在python目录下运行:效果如下:

文章图片
#c++#python#ubuntu
python-opencv对极几何 StereoRectify

将打印的结果保存到标定文件中即可。

文章图片
#python#opencv
sensor_msgs/PointCloud2雷达数据信息

Raw Message Definition # 该消息包含一个n维点的集合,它可能包含额外的信息,如法线、强度等。点数据以二进制blob的形式存储,其布局由“fields”数组的内容描述。# 点云数据可以组织为2d(类似图像)或1d(无序)。以二维图像组织的点云可以由立体或飞行时间等相机深度传感器产生。# 传感器数据采集时间,坐标坐标系ID (3d点)。uint32 seq。

文章图片
#人工智能#计算机视觉#机器学习 +1
利用hash算法计算图片相似度

计算两张图片的相似性,利用官方的hash python代码(https://github.com/zhangsong8/imagehash)测试图片相似度,算法源代码都在工程里面,非常方便,简单易懂。下面是我自己写的python测试脚本,批量生成图片之间的汉明距离。#-*- coding: utf-8 -*-#!/usr/bin/env pythonfrom PIL import Imageimp

#opencv#python#计算机视觉 +1
Transformer 模型详解

Transformer 是 Google 的团队在 2017 年提出的一种 NLP 经典模型,现在比较火热的 Bert 也是基于 Transformer。Transformer 模型使用了 Self-Attention 机制,不采用 RNN 的顺序结构,使得模型可以并行化训练,而且能够拥有全局信息。1. Transformer 结构首先介绍 Transformer 的整体结构,下图是 Transf

#transformer#自然语言处理#深度学习 +1
3D目标检测

一、综述1.1概述:3D目标检测目前主要的应用场景就是自动驾驶,自动驾驶车不仅仅需要识别障碍物的类型,还需要识别物体的精确位置和朝向。以提供信息给规划控制模块,规划出合理的线路。3D目标检测旨在通过多传感器数据如LIDAR、Camera、RADAR等,使得自动驾驶车辆具备检测车辆、行人、障碍物等物体的能力,保障行驶安全,是自动驾驶领域要解决的核心问题之一。普通2D目标检测并不能提供感知环境所需要的

#3d#目标检测#人工智能
    共 44 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择