logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

高速行驶过程中如何应用目标检测实现提前感知?

计算机视觉可以应用在很多不同的行业、不同的场景当中,而自动驾驶领域是这众多的行业、场景里面之一。当一个大问题到了非常具体的行业、到了一个具体的场景中时,那么对应产生的任务也需要具体落地,这些具体任务就形成了行业中的落地应用。...

文章图片
#计算机视觉#人工智能#深度学习
轻量化神经网络mobilenet全系列解读

谷歌团队在2017年提出了专注于移动端或嵌入式设备中的轻量级神经网络-MobileNet,到如今已发展了三个版本。

文章图片
#神经网络#深度学习#人工智能
[ICCV25]TRACE:用3D高斯直接学习物理参数,让AI“推演”未来场景

TRACE 提出了一个全新的思路:把三维场景中的每个点视为带有刚体属性的“粒子”,直接去学习它的平移与旋转动态,从而显式建模完整的物理参数。这样一来,机器人不仅能重建场景的几何和外观,还能在此基础上推演未来的发展趋势,相当于具备了“预测未来”的能力。与 NeRF 系列方法(如 D-NeRF、TiNeuVox)以及现有的 3DGS 扩展方法(如 DefGS、4DGS)相比,TRACE 的核心创新在于

#3d#学习#人工智能
干货文稿|详解深度半监督学习

传统机器学习中的主流学习方法分为监督学习,无监督学习和半监督学习。这里存在一个是问题是为什么需要做半监督学习?首先是希望减少标注成本,因为目前可以在很多现实场景中去获得大量的图片,那么需要标注的量和成本会几何增加。第二个是目前对所有大规模的数据进行标注进而训练模型是不现实的,因此可以使用一种方法使得用未标注的数据进行性能提升。

文章图片
#学习#机器学习#人工智能
8万条!清华团队开源VLA数据集:面向自动驾驶极端场景,多模态CoT标注+闭环安全提升35%

为探究第二个核心问题——即Impromptu VLA数据集具体提升自动驾驶哪些能力维度(感知/预测/规划),以及验证集作为诊断基准的效能——利用其规划导向的问答任务展开诊断评估套件:通过面向特定任务场景的对比方法,评测基础视觉-语言模型(VLM)与基于本数据集调优版本的性能差异。将描述文本精炼为有效的非结构化挑战类别:首先通过编程化识别滤除常规驾驶场景,执行基于视觉-语言模型(VLM)的二次分类—

#自动驾驶
最新!多模态机器人控制idea狂飙:西湖大学&浙大提出突破传统VLA局限的统一架构?

让机器人真正“读懂”人类意图,实现自然、流畅的交互,始终是具身智能的核心挑战。尽管语言模型已能理解复杂语义,视觉模型也可精准识别万物,但机器人的指令接收方式仍停留在“文字对话”的单一维度。——为此,西湖大学&浙江大学最新研究进展,提出了开放式多模态指令的视觉-语言-动作模型(OE-VLA)。(图像、视频、手写文字等)。这种扩展不是简单的功能叠加,而是需要模型具备更强的多模态理解和融合能力。带着这个

#机器人#intellij-idea#人工智能
多传感器融合:MVP和PointPainting

在当时 3D 物体检测还是以 Lidar-Only 的方式为主,因为融合的算法并不能体现明显的优势,但是很显然,Lidar 的信息有限、检测精度有限。不过我们还是需要有一些思考,虽然这样的方式可以提升性能,但是图像分割不是绝对准确的,如果赋错了怎么办?多传感器融合相关的理论真的可以非常复杂,而在感知方面,由于可以和深度学习做结合,所以很多工作可以变得简单有效,有时候一个简单的特征融合都会有很好的效

文章图片
#人工智能
一文读懂|大模型智能体互操作协议:MCP/ACP/A2A/ANP

基于此发现结果,选择与用户任务匹配的远程智能体;用户触发任务请求(通常无需理解底层智能体系统的技术细节),客户端智能体接收请求后解析任务意图,通过检索远程智能体发布的能力卡片(Agent Card)匹配最适格的服务提供方。为更清晰理解主流智能体互操作性协议间的差异,下表对四个广泛讨论的框架进行横向对比:模型上下文协议(MCP)、智能体通信协议(ACP)、智能体间协议(A2A)与智能体网络协议(AN

ICCV 2025|TRACE:无需标注,用3D高斯直接学习物理参数,从视频“预知”未来!

导读准确预测道路智能体的运动对于自动驾驶的安全性至关重要。当前,现有的数据驱动方法直接预测未来轨迹,缺乏对驾驶行为的充分考虑,限制了可解释性和可靠性。为此,本文引入了一种可解释的、奖励驱动的意图推理器来解决这一问题。实验结果表明,本文所提出的预测器能够生成高置信度、可靠的未来轨迹,同时与现有的最先进模型相比,实现了极具竞争力的性能。道路交通智能体的运动预测对于确保自动驾驶系统的安全性既是一项重大挑

#3d#学习#音视频
VLA落地难?2篇标志性成果解读:如何将DeepSeek R1 成功经验迁移至【具身智能】!

今天我们探讨:如何将DeepSeek的成功经验迁移至视觉-语言-动作(VLA)模型。众所周知,在自然语言处理领域,DeepSeek R1的横空出世,揭示了强化学习(RL)在大模型后训练中的革命性潜力。R1仅用传统方法1/3的计算资源,便实现了与GPT-4o相媲美的多步推理能力。其核心在于:冷启动自进化:摒弃监督微调(SFT)依赖,通过纯RL训练生成初始推理链,利用GRPO算法降低训练成本;

#人工智能
    共 150 条
  • 1
  • 2
  • 3
  • 15
  • 请选择