logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习——残差网络

残差网络是通过将输出从输入的映射改为输入数据加上输入的映射,这样就从学习输出的特征y表示变为学习残差,这样就有一条旁路连接输入和输出,每一层都能直接与顶层的损失进行“对话”,以此解决了梯度在反向传播的过程中逐渐消失的问题。

文章图片
#深度学习
vscode+anaconda安装及conda虚拟环境的激活

下载安装包直接点击安装即可。

文章图片
#vscode#conda#ide +1
算法设计基础——减治法

分治法是将一个大问题划分为多个子问题,接着对所有子问题求解,再将子问题的解进行合并得出原问题的解。减治法与分治法类似,也是将原问题分解为多个子问题,但却并不需要对所有子问题进行求解,它只需要求解其中一个子问题,因此不需要对子问题的解进行合并,只需通过这个子问题的解来得到原问题的解。减治法可以看做是一种特殊的分治法,但它在分解子问题的同时会不断地减少问题的规模,通常情况下其时间复杂度会比分治法低。作

文章图片
#算法
数据结构线性表例题

#include<iostream>using namespace std;#define MaxSize 100/*typedef int ElemType;typedef struct{ElemType datas[MaxSize];}Sqlists;*/template <class T1>class Sqlist{T1 data[MaxSize];int lengt

#c++
深度学习——残差网络

残差网络是通过将输出从输入的映射改为输入数据加上输入的映射,这样就从学习输出的特征y表示变为学习残差,这样就有一条旁路连接输入和输出,每一层都能直接与顶层的损失进行“对话”,以此解决了梯度在反向传播的过程中逐渐消失的问题。

文章图片
#深度学习
机器学习——logistic回归

在之前实验接触到的机器学习算法都是的目的都是对数据集进行分类,即预测得到的结果是数据样本所属的类别,预测输出结果是离散的集合,比如{‘是’,‘不是’}。这次实验学习的是回归模型,与分类模型不同的是,回归模型预测得到的是一个连续的数值,比如预测房价、温度等得到的值都是连续值。logistic回归就是一种回归模型,但是logistic回归得到的预测结果是分类,它虽然在中间过程是回归,但使用它的目的和它

文章图片
#机器学习#回归#人工智能
机器学习——决策树

决策树是一个基于树形结构的分类模型,它将数据集中的不同特征的不同取值对数据集进行分割,构造出一个树形结构,这个树形结构就是决策树,使用决策树能够进行分类任务,预测数据样本的分类。我们使用的分类算法是k近邻算法,它是一个很容易实现的分类模型,可以完成很多的分类任务,但它最大的缺点就是无法给出数据的内在含义,因为它只是通过计算样本点的距离来进行分类的,这个距离并不包含对该样本分类的实际意义,而决策树的

文章图片
#机器学习
机器学习——主成分分析(PCA)

给定n个样本(每个样本的维度为p维)​​​​​​​定义为样本在第一主成分/主方向上的投影:其中和都是用向量表示的:每个样本都对应一个,两个向量进行内积运算就能将映射到方向上,,如果将的模约束为1,那么​​​​​​​​​​​​​​和的内积就是,即​​​​​​​样本在主方向上的投影。(为什么是,如果我没理解错的话,和都是列向量,两个向量的内积应该就是第一个转置成行向量与第二个列向量相乘)主成分分析的目

文章图片
#机器学习
深度学习——线性回归

我们已经准备好了模型训练所需的所有要素,现在我们可以开始训练模型了,我们每次从数据集中抽取一个小批量的数据,根据小批量中的数据和模型参数,我们可以得到计算的结果y_hat,将y_hat和y传入损失函数进行计算小批量损失,接着再计算损失函数的梯度,再根据梯度优化更新参数,在更新完后,我们可以测试更新后的效果。这里我们使用小批量随机梯度下降法,首先从数据集中抽取一个小批量,然后计算损失函数的梯度,接着

文章图片
#深度学习#机器学习#python
数据结构——链表

链表是由多个地址不连续的存储结点连接而成的一种线性表,每个存储结构不仅包含元素本身的信息(数据域),而且包含表示元素之间的逻辑关系的信息,在c/c++中采样指针来实现,称为指针域,这个逻辑关系用指针来表示就是指向在线性表中与其相连的元素的地址。在线性表中,每个元素最多只有一个前驱结点和后继结点,采样链式存储时,每个结点需要包含前驱结点或者后继结点的地址信息,其中最简单也是最常用的方法是只存储每个结

文章图片
#数据结构#链表
    共 19 条
  • 1
  • 2
  • 请选择