
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
由于ST的新款单片机不再支持标准库,且HAL的开发环境逐渐优于标准库,故趁此次机会,全面转向HAL库开发。为了让熟悉标准库开发的工程师更好的转向HAL库开发,而不是从零学起,故撰写此系列博客。

总而言之,我们的开发,从亲自调用螺丝铝杆电动机造车,变成了找一个机械员工,告诉他需求,然后让他完成整个任务,当你需要知晓该任务的信息时,问他就完事了(狠狠地鞭策机械!这也是为什么现在火爆的开发语言基本是面向对象的,而不是面向过程的,这也在很大程度上降低了开发门槛。较少的寄存器,让初学者更好地把握与单片机交互的感觉,要和纯软件的“黑窗口”交互区别开来。换句话说,整个串口的功能都被整合到了一个“结构体

Adam算法结合了动量法(Momentum)和RMSProp的思想,能够自适应调整每个参数的学习率。通过动态调整每个参数的学习率,在非平稳目标(如深度神经网络的损失函数)中表现优异。

MXNet库简化了实现步骤,如优化算法、损失函数等

前期学习深度学习的时候,很多概念都是一笔带过,只是觉得它在一定程度上解释得通就行,但是在强化学习的过程中突然意识到,反向传播求梯度其实并不是一件简单的事情,这篇博客的目的就是要讲清楚反向传播是如何对特定的某一层求梯度,进而更新其参数的。
基于MXNet框架的softmax图像分类从零实现

上述提到的变量uwTickFreq(值来自宏HAL_TICK_FREQ_1KHZ==1),即让SysTick每1ms溢出一次。各种算法需要的采样时间、外设模块需要的延时时间、测试所需的延时时间等,都可以使用SysTick。我们也可以直接调用SysTick->LOAD和SysTick->VAL,来。使滴答定时器正好1s把SystemCoreClock计完,然后溢出。HAL_Delay()函数会调用滴

CVPR论文复现,FoundationPose 6D位姿估计
PID的理论很简单,但是在落地的时候经常会碰到很多意料之外的问题,故此根据调参经验分享一些文本,来和大家交流讨论

Adam算法结合了动量法(Momentum)和RMSProp的思想,能够自适应调整每个参数的学习率。通过动态调整每个参数的学习率,在非平稳目标(如深度神经网络的损失函数)中表现优异。
