logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

自动驾驶感知——激光雷达基本概念|激光雷达点云|激光雷达的标定

点云是激光雷达获取的三维场景信息的数据存储形式,不同于图像数据,点云由空间中一系列离散的点组成,并记录了这些点相对于激光雷达自身坐标系的三维坐标与反射率。一帧点云数据(包含N个点)可表示为xiyizirii1Nxi​yi​zi​ri​i1N​其中𝑥𝑖𝑦𝑖𝑧𝑖xi​yi​zi​第个点在激光雷达坐标系下的坐标,𝑟𝑖𝑟_𝑖ri​为该点的反射率。

文章图片
#自动驾驶#人工智能
自动驾驶路径跟踪控制——纯追踪控制

全局路径由一系列路径点构成,这些路径点只要包含即可,也可以包含,但是,这些路径点被称为。路径(Path)和轨迹(Trajectory)的区别就在于,,轨迹点也是一种路径点,它在路径点的基础上加入了。。本节介绍一种广泛使用的——纯追踪法(Pure Pursuit)。

文章图片
#自动驾驶#算法
自动驾驶感知——视觉感知经典算法

定义(狭义):给定图像III, 输出图像中所有目标实例的包围框集合BBkk1KBBk​k1K​,并提供对应包围框中目标实例的类别。

文章图片
#算法#自动驾驶
【论文笔记】Optimal Trajectory Generation for Autonomous Vehicles Under Centripetal Acceleration Constrain

Optimal Trajectory Generation for Autonomous Vehicles Under Centripetal Acceleration Constraints for In-lane Driving Scenarios》这篇文章主要是apollo思想的来源。

文章图片
#论文阅读#自动驾驶#人工智能 +2
【论文笔记】Optimal Vehicle Path Planning Using Quadratic Optimization for Baidu Apollo Open Platform

本文介绍了基于优化的自动驾驶路径规划方法,通过解耦为参考线生成和基于分段加加速度的优化两个阶段,有效地利用了道路结构,实现了更清晰的场景理解。其中,参考线生成采用二次规划进行解决,并且考虑了参考线曲率导数的连续性,路径边界生成部分考虑了交通规则、自车状态以及堵塞障碍物信息的决策树,路径优化采用连续性、安全性和曲率约束等方法,采用OSQP求解器进行求解。该方法已在百度阿波罗开放平台发布,并进行了多种

文章图片
#论文阅读#决策规划#算法 +2
Apollo星火计划学习笔记——Apollo决策规划技术详解及实现(以交通灯场景检测为例)

接着判断当前道路状况是否可以换道,若可以换道,则路径决策生成一个换道边界,若不可以换道,则会生成一个道内的边界。Traffic Light场景的进入这部分主要有两个部分:第一个部分通过Overlap重叠判断是否进入交叉路口,第二个部分通过由高精地图提供的车道信息以及交通信号等情况进入不同的场景,选择是有保护的场景还是无保护的场景。速度决策的流程:对当前路径产生一个或多个速度边界,再将其集成一个速度

文章图片
#学习#人工智能#数据挖掘
【Apollo学习笔记】—— Planning模块

本文记录学习planning模块时的一些笔记,总体流程参照中的流程图,如上图所示。

文章图片
#算法#决策规划#自动驾驶
【ROS】——常用命令(五)

📢本系列将依托赵虚左老师的ROS课程,写下自己的一些心得与笔记。📢 文章可能存在疏漏的地方,恳请大家指出。rosnode : 操作节点rostopic : 操作话题rosservice : 操作服务rosmsg : 操作msg消息rossrv : 操作srv消息rosparam : 操作参数作用和之前介绍的文件系统操作命令比较,文件操作命令是静态的,操作的是磁盘上的文件,而上述命令是动态的,在

#自动驾驶#深度学习#人工智能
【ROS】—— 机器人导航(仿真)—导航实现(十八)[重要][重要][重要]

安装相应功能包:创建功能包,暂时只需用到以下依赖:gmapping map_server amcl move_basegmapping 是ROS开源社区中较为常用且比较成熟的SLAM算法之一,gmapping可以根据移动机器人里程计数据和激光雷达数据来绘制二维的栅格地图,对应的,gmapping对硬件也有一定的要求:该移动机器人可以发布里程计消息机器人需要发布雷达消息(该消息可以通过水平固定安装的

文章图片
#机器人
【强化学习】17 ——DDPG(Deep Deterministic Policy Gradient)

之前的章节介绍了基于策略梯度的算法 REINFORCE、Actor-Critic 以及两个改进算法——TRPO 和 PPO。这类算法有一个共同的特点:它们都是在线策略算法,这意味着它们的样本效率(sample efficiency)比较低。本章将要介绍的深度确定性策略梯度(deep deterministic policy gradient,DDPG)算法通过使用离线的数据以及Belllman等式

文章图片
#人工智能#算法#机器学习
    共 52 条
  • 1
  • 2
  • 3
  • 6
  • 请选择