
简介
地平线开发者社区旨在连接智能驾驶领域的开发者和对相关技术感兴趣的其他行业开发者、从业者。 我们将为大家提供最前沿的智驾相关技术资讯和丰富的技术活动,营造积极向上的开发者文化与氛围,共同构建智能驾驶的开发者生态体系。
擅长的技术栈
可提供的服务
暂无可提供的服务
地平线SoC平台稳定性问题概述,涵盖kernel panic、内存损坏、看门狗和防火墙等常见问题,并提供调试方法。

本文介绍了四种主流的大模型量化方法:GPTQ、SmoothQuant、AWQ和旋转量化。

本文会对 LLM 中评价指标预训练概要进行介绍

12 月 9 日,“智驾生态·共筑未来丨地平线开发者生态论坛”在深圳前海国际会议中心如期举办。

和我们一起 step by step 跑通你的征程 6 参考算法 BEVFormer 代码吧!

ReID/OSNet 算法模型量化转换实践

和我们一起 step by step 跑通你的征程 6 参考算法 BEVFormer 代码吧!

帮助大家更好地理解两种激活函数在实际场景中的差异和应用

明确模型的输入与输出定义模型的损失函数LLM,即大语言模型,本质上是一个“token 接龙”高手,它不断预测下一个词符。这种推理生成方式被称为自回归模型,因为模型的输出会作为下一轮的输入,形成一个循环。刚开始,一个随机大模型,面对输入,它预测的下一个字符完全是随机的那么,它是如何学习的呢?在自注意力机制中,通过为 qk 增加掩码,softmax 后将负无穷对应到 0,隐藏掉 n 字符以后的内容。这

推理多任务模型时,可能会有不同任务分支 部署不同帧率的需求,例如 BEV 动态任务 20 帧,静态任务 10 帧这种情况。此时,重复的公共部分 backbone+neck 会重复占用内存与存储,且 backbone+neck 重复推理,会造成多余的资源消耗、影响性能。为了解决这些问题,且实现不同任务分支推理不同帧率,可以使用工具链提供的 link 打包功能。工具链提供的 link 功能,能够 复用









