
简介
地平线开发者社区旨在连接智能驾驶领域的开发者和对相关技术感兴趣的其他行业开发者、从业者。 我们将为大家提供最前沿的智驾相关技术资讯和丰富的技术活动,营造积极向上的开发者文化与氛围,共同构建智能驾驶的开发者生态体系。
擅长的技术栈
可提供的服务
暂无可提供的服务
本文演示了地平线征程6平台电源管理API的使用,包括启动标志读写、main域上下电、状态查询、复位、全系统下电及多种休眠唤醒场景的示例代码。

本文演示了地平线征程6平台电源管理API的使用,包括启动标志读写、main域上下电、状态查询、复位、全系统下电及多种休眠唤醒场景的示例代码。

本文介绍了地平线征程6B计算平台的部署指南,涵盖硬件配置、工具链(PTQ/QAT)、模型转换、板端部署(UCP)及性能监测。

摘要 本文介绍了智能驾驶场景中多任务模型的优化部署方案。针对BEV动静态任务不同推理频率需求,分析了两种传统拆分方案的优缺点,提出利用工具链的link打包功能实现更优解决方案。该方案通过复用公共部分常量,将多个子模型打包为单一hbm文件,在保持模型体积接近的同时支持灵活调度不同任务分支的推理频率。

地平线征程6工具链UCP平台支持模型板端部署,提供图像获取、性能分析、优化工具及前后处理模块。

随着大模型功能的不断强化,其容量也在增加,当前的 KVCache 技术已经不能满足发展需要了,所以,各种针对于 KVCache 优化的技术应时而生。

明确模型的输入与输出定义模型的损失函数LLM,即大语言模型,本质上是一个“token 接龙”高手,它不断预测下一个词符。这种推理生成方式被称为自回归模型,因为模型的输出会作为下一轮的输入,形成一个循环。刚开始,一个随机大模型,面对输入,它预测的下一个字符完全是随机的那么,它是如何学习的呢?在自注意力机制中,通过为 qk 增加掩码,softmax 后将负无穷对应到 0,隐藏掉 n 字符以后的内容。这

FlashAttention 是一种专为 Transformer 优化的高性能注意力机制。它能显著加速训练和推理,同时减少内存占用,广泛应用于 LLaMA、GPT-NeoX、PaLM 等大模型中。

文章介绍了地平线征程6H/P平台的QAT量化调优流程,重点围绕int8+int16+fp16混合精度配置,详细阐述了模型检查、校准、训练和导出部署各阶段的调优原则、常见问题及解决方法。

本文为地平线PTQ实战指南,提供快速评测、校准部署、混合精度调优等步骤,帮助开发者高效优化模型性能与精度。









