
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
二次规划问题(Quadratic Programming,QP)是一种非线性规划问题,它的目标函数为二次函数,约束条件和线性规划问题的约束条件一样,都是线性等式或线性不等式

人工势场法的基本思想是在障碍物周围构建障碍物斥力势场,在目标点周围构建引力势场,类似于物理学中的电磁场被控对象在这两种势场组成的复合场中受到斥力作用和引力作用,斥力和引力的合力指引着被控对象的运动,搜索无碰的避障路径。更直观而言, 势场法是将障碍物比作是平原上具有高势能值的山峰, 而目标点则是具有低势能值的低谷。引力势场主要与汽车和目标点间的距离有关, 距离越大, 汽车所受的势能值就越大; 距离越
文章目录参考资料1. 几何车辆模型2. Pure Pursuit(纯追踪)算法3. python代码实现参考资料轨迹跟踪Pure Pursuit方法使用pure pursuit实现无人车轨迹追踪1. 几何车辆模型在前文中讲解了PID实现轨迹跟踪,这篇来讲解纯追踪法。使用的车辆模型这里依旧采取以后轴中心为车辆中心的单车运动学模型其满足tanδf=LR(1) \tag{1} \tan{\delta_
文章目录参考资料1. 基本模型建立参考资料车辆数学模型车辆模型-动力学模型(Dynamics Model)1. 基本模型建立我们作如下假设:车辆所受的空气的力只会对车身坐标系x轴方向上的运动有影响,y轴方向和沿着z轴的旋转不会受到空气力的影响;车辆运行在二维平面中,也就是z轴无速度。车辆轮胎力运行在线性区间。建立如下坐标系,X,Y表示全局坐标系,x,y则表示车身坐标系,x轴方向沿车辆中轴方向向前,
车辆运动学模型车辆动力学模型学习卡尔曼滤波(一)——线性卡尔曼滤波学习卡尔曼滤波(二)——扩展卡尔曼滤波学习卡尔曼滤波(三)——无迹卡尔曼滤波PID实现轨迹跟踪
许久之前做的一个项目。在maddpg和openai给的环境的基础上进行修改,使用多智能体强化学习完成追逃博弈,并与传统方法进行对比。下面记录下修改的地方。
文章目录参考资料1. 基本概述2. 误差动力学模型参考资料车辆模型-跟踪误差模型Vehicle Dynamics and Control1. 基本概述车辆横向控制主要通过控制轮胎转角实现,而对于驾驶员来说,可直接操控的是方向盘角度,因此在搭建车辆动力学模型时,可以建立以相对于道路的方向和距离误差为状态变量的动力学模型。假设——eye_yey:车辆重心距车道中心线的距离;eψe_{\psi}eψ
双线性插值,又称为双线性内插。在数学上,双线性插值是对线性插值在二维直角网格上的扩展,用于对双变量函数(例如 x 和 y)进行插值。其核心思想是在x,y两个方向分别进行一次线性插值。线性插值可以查看之前的博客文章。

文章目录参考资料思路1思路2思路34. 练习1. Q-learning相比于policy gradient based方法为什么训练起来效果更好,更平稳?参考资料https://datawhalechina.github.io/easy-rl/#/chapter8/chapter8思路1a=argmaxaQ(s,a)a=\arg \max _{a} Q(s, a) a=argamaxQ(s,
Soft Actor-Critic (SAC)是面向Maximum Entropy Reinforcement learning 开发的一种off policy算法,和DDPG相比,Soft Actor-Critic使用的是随机策略stochastic policy,相比确定性策略具有一定的优势。Soft Actor-Critic兼具稳定性高和样本利用率高的优点。......