logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

嵌入式工程师职业路径

他建议嵌入式工程师学习因特网有关的技术,对职业生涯发展会有加分效果,例如他目前负责的几个开发案,都是在嵌入式系统中嵌入虚拟(virtual)的XML,好让一些小型连网设备能具备“即插即用”的运作模 式。对 嵌入式工程师来说,确保自己对软硬件技术都很了解,是非常宝贵的价值。驱动与底层硬件直接打交道,按照硬件设备的具体工作方式,读写设备的寄存器,完成设备的轮询、中断处理、DMA通信,进行物理内存向虚拟

#驱动开发
小米在建IoT护城河Vela NuttX

目前看来,小米畅快连、小米妙享、小米"一指连"UWB技术、小爱5.0、Works With Mijia开放生态,Xiaomi Vela软件平台、小米IoT模组家族以及丰富的小米生态链产品,都在从硬件到软件、从技术到服务、从产 品 到生态等各种维度加强"手机+AIoT"的生态场景体验与繁荣,积极推动整个AIoT场景与行业健康发展,小米物联网技术护城河才真正要建起来。众所周知,小米及其生态链企业的产品

文章图片
#物联网
卷积神经网络(CNN) 基础概念

假设一张小图像包含的数据量为1000×1000×3(rgb,3通道),如果把这些数据直接作为神经网络的输入层,将会导致输入层单元非常多,从而导致计算量非常大(假设隐藏层单元有1000个,则输入层和第二层之间的权重向量的大小为3,000,000×1000)。相比于把整个图像所含的数据直接作为输入层数据的方法,CNN中的参数只有卷积核中的参数,还可以算上偏置(bias)这一个参数。因此,在卷积操作之前

文章图片
#cnn#人工智能#神经网络
BP神经网络c/c++代码实现

第 j 个输出神经元的输入: y ^ j = f ( β j − θ j ) 其中 θ j 为输出层的阈值 第j个输出神经元的输入:\hat{y}_{j}=f(\beta _{j}-\theta _{j}) 其中\theta _{j}为输出层的阈值。第 h 个隐层神经元的输出: b h = f ( α h − γ h ) 其中 γ h 为隐藏层的阈值 第h个隐层神经元的输出:b_{h}=f(\al

文章图片
#神经网络#c语言#c++
三万字硬核详解:卷积神经网络CNN(原理详解 + 项目实战 + 经验分享)

卷积运算的详细过程:(1)取(3 x 3)输入图像中的(2 x 2)矩阵,然后与(2 x 2)卷积核进行卷积运算,得到一个计算结果( 0 * 0 + 1 * 1 + 3 * 2 + 4 * 3 = 19);(2)通过滑窗,循环计算得到输出特征图(2 x 2)。(2)一般取卷积核=3;(3)【=1】不改变感受野;self.conv1 = nn.Conv2d(in_channels=3, out_ch

文章图片
#cnn#深度学习#人工智能
卷积神经网络原理及其C++/Opencv实现(2)

对于分类问题,在网络的最后需要输出各个类别的概率,并认为最大概率的类别为最终分类结果,因此在Affine层之后还需要连接一层输出层,把每个类别的输出值转换为0~1之间的概率,转换函数通常使用Softmax函数。既然是窗口滑动,就涉及到滑动步长step的选择,step可以取固定的1,2,3...,但是要求满足条件step+c...

#深度学习#计算机视觉#神经网络
页表映射建立

Linux内核中一般采用的是3级映射模型,第一层是页面目录(PDG),第二层是中间目录(PMD),页表(PTE),其三级映射的框图如下:对于IMX6UL架构中,可以采用按段来映射,这时候采用的是一级页表,内存中有一个映射段,表中有4096个表项,每个表项大小为4Byte,所以这个映射表的大小为16KB,而且其位置必须是16KB边界对齐,每个段表项可以寻址1MB的大小的地址空间。当CPU访问内存时,

文章图片
linux内存模型

前面已经分析把物理内存添加到memblock以及给物理内存建立页表映射,这里我们分析内存模型。在Linux内核中支持3种内存模型,分别为flat memory modelDiscontiguous memory modelsparse memory model所谓memory model,其实就是从cpu的角度看,其物理内存的分布情况,在linux kernel中,使用什么的方式来管理这些物理内存

文章图片
算子开发概述

当将第三方开源框架(如TensorFlow, PyTorch等)训练的神经网络模型转化为适配当前处理器(如GPU, FPGA, ASIC等)的模型时,可能会遇到不支持的算子。在推理(Inference)阶段,为了提高模型的执行速度和效率,开发者会采用多种优化策略,其中算子融合(Operator Fusion)是一种常见的技术。例如,将卷积层(Convolution)和批量归一化层(Batch No

文章图片
#人工智能#机器学习#神经网络
    共 95 条
  • 1
  • 2
  • 3
  • 10
  • 请选择