logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

波士顿动力人形机器人Atlas

过去几年,Atlas 人形机器人的动态跑酷能力已经让全世界的关注,后来我们还看到 Atlas 在模拟建筑工地上搬搬扛扛。Atlas 目前仍然是一个开发平台,尚不能在现实世界中工作,一部分原因是它的液压驱动设计。波士顿动力最新人形机器人Atlas,其核心技术涵盖了机械设计、控制理论、传感器融合、机器学习等多个领域。

文章图片
#机器人
Vivado——面向模块的个性化综合技术

本文介绍了面向模块的差异化综合策略配置方法。针对FPGA设计中不同功能模块的特性,提出了性能优化(PERFORMANCE_OPTIMIZED)和布线优化(ALTERNATE_ROUTABILITY)两种核心策略,前者适用于高速时序路径模块,后者适合易出现布线拥塞的模块。此外还介绍了低功耗、面积优先等可选策略。详细说明了在Vivado工具中通过Tcl脚本为特定模块设置BLOCK_SYNTH.STRA

文章图片
基于PCM/FM和GMSK调制解调与多符号检测Turbo乘积码方法的通信链路matlab仿真

摘要:本文研究了PCM/FM码同步、GMSK调制解调及MSD多符号检测技术,重点分析了Turbo乘积码(TPC)的编解码过程。通过MATLAB仿真实现了MSD检测算法,测试了不同调制指数下的误码率性能。结果表明,MSD检测能有效改善GMSK系统的误码性能,TPC编码通过迭代解码可接近香农限。研究为数字通信系统设计提供了理论依据和实现方案。

文章图片
FPGA时序约束分析11——‘-invert’约束分析

Vivado时序约束中的-invert参数用于反转信号的有效边沿或逻辑极性。该参数主要应用于时钟和延迟约束,其核心功能是告知时序分析工具信号的实际有效状态与默认相反。对于时钟信号,Vivado默认上升沿有效,使用-invert则指定下降沿为有效边沿,并据此计算建立和保持时间。该参数确保时序分析结果与电路实际行为一致,特别适用于需要反转默认有效状态的设计场景。

文章图片
#fpga开发
vivado综合设置技巧分析2——-keep_equivalent_registers和-resource_sharing

本文介绍了Vivado中的两个关键综合设置:1. -keep_equivalent_registers选项控制等效寄存器(共享相同输入端的寄存器)的优化处理,建议不勾选以自动优化无意产生的冗余寄存器;2. -resource_sharing选项管理算术运算单元的资源共享,提供auto/off/on三种模式,默认auto模式会根据设计需求自动优化加减乘法运算的资源复用。这两个设置分别针对寄存器优化和

文章图片
#fpga开发
每日一篇读懂vivado时序报告2——General Information解析

本文介绍了FPGA时序报告的基本分析流程。首先需要准备FPGA工程并打开Vivado工具的时序报告功能。重点解读了General Information中的三部分关键内容:1)器件参数(型号7z020、封装clg400、速度等级-2);2)Vivado软件版本信息(2022.2版);3)时序报告生成命令及其参数意义(包括路径数量限制、详细检查模式等)。这些信息共同构成了时序分析的基础框架,为后续深

文章图片
#fpga开发
FPGA时序约束分析18——输出延迟约束分析

FPGA输出延迟约束是确保外部芯片正确采样数据的关键时序约束。通过set_output_delay命令定义最大/最小延迟,分别对应外部芯片的建立/保持时间要求。Vivado工具中,set_output_delay语法包含时钟参考、边沿选择等参数,具体应用场景包括:SDR单边沿(上升/下降沿)约束,以及DDR双边沿约束(需添加-add_delay参数避免覆盖)。约束数值需根据芯片手册和PCB走线确定

文章图片
#fpga开发
Vivado HLS开发流程简单介绍

本文详细介绍了Vivado HLS和传统FPGA开发流程,并对比了两种方法的适用场景。Vivado HLS允许使用高级语言(如C、C++)描述硬件行为,自动转换为RTL代码,适合算法密集型设计,开发效率高。其流程包括算法设计、添加优化指令、C仿真、C到RTL综合、RTL仿真、C/RTL协同仿真及IP核导出。传统FPGA开发则基于RTL级设计,流程包括需求分析、RTL代码实现、功能仿真、综合、实现、

文章图片
#fpga开发
大模型中Self-Attention与Flash-Attention原理概述

它不是预先计算完整的注意力矩阵,而是在计算小块输出时,根据需要动态地计算注意力分数和权重。例如,在计算一个小块Qi与其他小块Ki和Vj的交互时,仅计算当前小块所需的注意力分数和权重,并且在计算完成后,不存储完整的注意力矩阵,而是直接更新小块输出。例如,重复利用已经计算过的中间结果,避免重复计算相同的部分。在传统的自注意力计算中,需要先计算所有的注意力分数,然后进行 Softmax 归一化,最后计算

文章图片
常见大模型——LLaMA模型

LLaMA(Large Language Model Meta AI)是由Meta开发的一种大规模语言模型,旨在提高自然语言处理任务的性能。LLaMA基于Transformer机构,并经过大规模数据训练,以便在多种语言任务中表现出色。LLaMA在Transformer结构的基础上,采用前置层归一化(Pre-normalization)和RMSNorm归一化函数(Normalizing Functi

文章图片
    共 358 条
  • 1
  • 2
  • 3
  • 36
  • 请选择