神经网络与深度学习 作业1:第二章课后题
神经网络与深度学习 作业1:第二章课后题
习题 2-1 分析为什么平方损失函数不适用于分类问题 , 交叉熵损失函数不适用于回归问题.
答:
平方损失函数:
平方损失函数较为容易理解,它直接测量机器学习模型的输出与实际结果之间的距离,为学习模型的输出,
为实际结果。
交叉熵损失函数:
交叉熵是用来评估当前训练得到的概率分布与真实分布的差异情况,减少交叉熵损失就是在提高模型的预测准确率。是真实分布的概率,
是模型通过数据计算出来的概率估计。
从平方损失函数运用到多分类场景下,可知平方损失函数对每一个输出结果都十分看重,而交叉熵损失函数只对正确分类的结果看重。交叉熵损失函数只和分类正确的预测结果有关。而平方损失函数还和错误的分类有关,平方损失函数除了让正确分类尽量变大,还会让错误分类都变得更加平均,但实际中后面的这个调整使没必要的。但是对于回归问题这样的考虑就显得重要了,因而回归问题上使用交叉熵并不适合。
习题 2-12 对于一个三分类问题 , 数据集的真实标签和模型的预测标签如下 :
分别计算模型的精确率、召回率、F1值以及它们的宏平均和微平均.
答:首先先引入真正例、假正例、假反例、真反例的概念。
预测结果 | |||
真 | 假 | ||
真实情况 | 真 | TP(真正例) | FN(假反例) |
假 | FP(假正例) | TN(真反例) |
精确率(查准率):
召回率(查全率):
F值(综合评价指标): F值是精确率和召回率的加权调和平均。
当参数α=1时,就是最常见的F1。
宏平均(每一类性能指标的算术平均):
宏查准率:
宏查全率:
F1:
微平均(每个样本的性能指标的算术平均值):
收获:学会了使用公式写博客,比原想的要简单,但是打了好久,大概两个多小时?主要还是用的不够熟练,以后有用到公式的地方就不用截图了。了解了交叉损失函数的计算以及特点。复习了TP等的概念,这次试验可以说获益匪浅。
参考内容:
机器学习:准确率(Precision)、召回率(Recall)、F值(F-Measure)、ROC曲线、PR曲线
更多推荐
所有评论(0)