logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

《神经网络与深度学习》习题解答(至第七章)

部分题目的个人解答,参考了github上的习题解答分享与知乎解答。题目是自己做的,部分解答可能出错,有问题的解题部分欢迎指正。第一章2-1直观上,对特定的分类问题,平方差的损失有上限(所有标签都错,损失值是一个有效值),但交叉熵则可以用整个非负域来反映优化程度的程度。从本质上看,平方差的意义和交叉熵的意义不一样。概率理解上,平方损失函数意味着模型的输出是以预测值为均值的高斯分布,损失函数是在这个预

#算法#线性代数#深度学习 +2
《神经网络与深度学习》第8-9章习题解答

最近忙毕设论文,之前写的第8-9章个人解答也就从自己的私人博客进行转载到CSDN上进行分享,答案的正确性不能完全保证。第八章8-1LSTM输入层的特征长度为nnn,输出层的长度为mmm时,神经元个数为:Neuronsall=4×((n+m)×m+m)Neurons_{all}=4 \times ((n+m)\times m +m)Neuronsall​=4×((n+m)×m+m)去掉偏置项,则为:

#深度学习#神经网络#机器学习 +1
《神经网络与深度学习》第8-9章习题解答

最近忙毕设论文,之前写的第8-9章个人解答也就从自己的私人博客进行转载到CSDN上进行分享,答案的正确性不能完全保证。第八章8-1LSTM输入层的特征长度为nnn,输出层的长度为mmm时,神经元个数为:Neuronsall=4×((n+m)×m+m)Neurons_{all}=4 \times ((n+m)\times m +m)Neuronsall​=4×((n+m)×m+m)去掉偏置项,则为:

#深度学习#神经网络#机器学习 +1
《神经网络与深度学习》习题解答(至第七章)

部分题目的个人解答,参考了github上的习题解答分享与知乎解答。题目是自己做的,部分解答可能出错,有问题的解题部分欢迎指正。第一章2-1直观上,对特定的分类问题,平方差的损失有上限(所有标签都错,损失值是一个有效值),但交叉熵则可以用整个非负域来反映优化程度的程度。从本质上看,平方差的意义和交叉熵的意义不一样。概率理解上,平方损失函数意味着模型的输出是以预测值为均值的高斯分布,损失函数是在这个预

#算法#线性代数#深度学习 +2
《神经网络与深度学习》第8-9章习题解答

最近忙毕设论文,之前写的第8-9章个人解答也就从自己的私人博客进行转载到CSDN上进行分享,答案的正确性不能完全保证。第八章8-1LSTM输入层的特征长度为nnn,输出层的长度为mmm时,神经元个数为:Neuronsall=4×((n+m)×m+m)Neurons_{all}=4 \times ((n+m)\times m +m)Neuronsall​=4×((n+m)×m+m)去掉偏置项,则为:

#深度学习#神经网络#机器学习 +1
《神经网络与深度学习》习题解答(至第七章)

部分题目的个人解答,参考了github上的习题解答分享与知乎解答。题目是自己做的,部分解答可能出错,有问题的解题部分欢迎指正。第一章2-1直观上,对特定的分类问题,平方差的损失有上限(所有标签都错,损失值是一个有效值),但交叉熵则可以用整个非负域来反映优化程度的程度。从本质上看,平方差的意义和交叉熵的意义不一样。概率理解上,平方损失函数意味着模型的输出是以预测值为均值的高斯分布,损失函数是在这个预

#算法#线性代数#深度学习 +2
DeepSeek系列模型技术报告的阅读笔记

DeepSeek系列模型经过不断积累,量变产生质变,本文为DeepSeek系列模型论文进行阅读后做的相关笔记,其中有错误之处请私信\评论指正。

文章图片
Bugku writeup 猫片(安恒)

Bugku writeup 猫片(安恒)题目:解题:1、首先打开题目附件,得到一个png的二进制文件。用010editor打开,发现头部内容显示为png,因此修改文件后缀,得到一张图片。打开虚拟机跑一下binwalk,没有任何其他收获;打开pngcheck检查一下,也无异常。2、在这时,思考hint内容:LSB、BGR,故使用Stegsolve,在Data Extract内勾选L...

《神经网络与深度学习》习题解答(至第七章)

部分题目的个人解答,参考了github上的习题解答分享与知乎解答。题目是自己做的,部分解答可能出错,有问题的解题部分欢迎指正。第一章2-1直观上,对特定的分类问题,平方差的损失有上限(所有标签都错,损失值是一个有效值),但交叉熵则可以用整个非负域来反映优化程度的程度。从本质上看,平方差的意义和交叉熵的意义不一样。概率理解上,平方损失函数意味着模型的输出是以预测值为均值的高斯分布,损失函数是在这个预

#算法#线性代数#深度学习 +2
到底了