
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
10分类的验证结果 做一个DF 行 为一条记录列名为 分类名和预测的结果这一个类的概率 预测结果和实际结果 这样可以跟直观的观察每一个验证过程。# 报表模块的使用 sklearn 里面的 metrics 的classification_report 生成 准确度 精确度 召回率 F1分数。# 召回率真的正向/全部的真值为正向的TP/(TP+FN)(TP+FN)是本来是正向的 被预测是正向或者负向。

10分类的验证结果 做一个DF 行 为一条记录列名为 分类名和预测的结果这一个类的概率 预测结果和实际结果 这样可以跟直观的观察每一个验证过程。# 报表模块的使用 sklearn 里面的 metrics 的classification_report 生成 准确度 精确度 召回率 F1分数。# 召回率真的正向/全部的真值为正向的TP/(TP+FN)(TP+FN)是本来是正向的 被预测是正向或者负向。

误差反向传播算法(Back Propagation)是其中最杰出的代表,它是目前最成功的神经网络学习算法。# 大多是在使用 BP 算法进行训练,值得指出的是 BP 算法不仅可用于多层前馈神经网络,还可以用于其他类型的神经网络。# 每一层都有自己的损失函数和W 每一层都可以做w新=w旧-lr*g求每一层的w的时候上面层的w都是知道的 所以求这一层的导函数就行 链式到输入层。# MAE通常用于需要对误

transforms1=transforms.Compose([transforms.ToTensor(),transforms.Resize((32,32))]) # transforms.Compose()方法为transforms组合转化器 里面传入一个列表 列表里面的元素是 transforms的转化器。#"architecture": "CNN", # 模型是CNN。#"dataset"

误差反向传播算法(Back Propagation)是其中最杰出的代表,它是目前最成功的神经网络学习算法。# 大多是在使用 BP 算法进行训练,值得指出的是 BP 算法不仅可用于多层前馈神经网络,还可以用于其他类型的神经网络。# 每一层都有自己的损失函数和W 每一层都可以做w新=w旧-lr*g求每一层的w的时候上面层的w都是知道的 所以求这一层的导函数就行 链式到输入层。# MAE通常用于需要对误

两个全连接 然后两个全连接的结果 堆叠在一起 在0轴上做一个softmax 因为这两个全连接的softmax结果对应位置要分别+起来为一 分别约束就是。self.fc=nn.Sequential(nn.Linear(inplanes,d),nn.ReLU()) # 线性 有缩放因子。# softmax 不会改变原tensor的形状 只是给tensor的值改为一个概率分布。# **Selective

神经元死亡:由于$$ReLU$$在$$x≤0$$时输出为$$0$$,如果某个神经元输入值是负,那么该神经元将永远不再激活,成为“死亡”神经元。# 数值不稳定性:在计算过程中,如果$$z_i$$的数值过大,$$e^{z_i}$$可能会导致数值溢出。# 1. 输出范围: 将输入映射到$$(-1, 1)$$之间,因此输出是零中心的。# 突出差异:$$Softmax$$会放大差异,使得概率最大的类别的输出

transforms1=transforms.Compose([transforms.ToTensor(),transforms.Resize((32,32))]) # transforms.Compose()方法为transforms组合转化器 里面传入一个列表 列表里面的元素是 transforms的转化器。#"architecture": "CNN", # 模型是CNN。#"dataset"

线性回归是机器学习中一种**有监督学习**的算法,**回归问题**主要关注的是**因变量**(需要预测的值)和一个或多个数值型的**自变量**(预测变量)之间的关系.# 1. **可测量性**:连续型数据通常来源于物理测量,如长度、重量、温度、时间等,这些量是可以精确测量的。# - **描述性统计**:计算均值、中位数、众数、标准差、四分位数等,以了解数据的中心趋势和分布情况。# 3. **多样性

- 激活函数(Activation Function): 用于将加权求和后的结果转换为输出结果,**引入非线性特性,使神经网络能够处理复杂的任务**。# 全连接(Fully Connected,FC)神经网络是**前馈神经网络**的一种,每一层的神经元与上一层的所有神经元全连接,常用于图像分类、文本分类等任务。# **优点**:平衡了输入和输出的方差,适合$$Sigmoid$$ 和 $$Tanh$








