logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

经典CNN梳理

与LeNet有相同之处,也有很多区别;比如适用大尺寸的图像所以使用11X11这种大尺寸的卷积核使用Relu激活函数,对比tanh/sigmoid激活函数,训练更快且避免梯度消失dropout随机使得一些神经元失活防止过拟合(用在全连接层)LRN局部归一化:正则项,防止过拟合# input_size还必须是元组,使用列表就会报错,,,,AlexNet中使用了dropout,resnet丢弃dropo

文章图片
#cnn#神经网络#人工智能 +3
到底了