logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

XGBoot算法---介绍、说明、python代码

提示:这些是自己整理 可以借鉴 也可能存在错误 欢迎指正XGBoot一、是什么?集成算法思想XGBoost基本思想二、使用步骤算法流程小结一、是什么?xgboot的全称为eXtreme Gradient Boosting集成算法思想引出:在使用决策树时,一颗树的效果不太好,用两棵树呢?同理,在做分类或者回归任务的时候,需要想一想一旦选择用一个分类器可能表达效果并不是很好,那么就要考虑用这样一个集成

#算法#机器学习#聚类
数据结构排序算法(面试、复试、笔试)

数据结构经典算法插入排序1.直接插入排序2.希尔排序交换排序3.冒泡排序4.快速排序选择排序5.简单选择排序6.堆排序归并排序7.归并排序线性时间非比较类排序8.计数排序9.桶排序10.基数排序好的分享:十大经典算法.数据结构经典算法.插入排序1.直接插入排序2.希尔排序交换排序3.冒泡排序4.快速排序选择排序5.简单选择排序6.堆排序归并排序7.归并排序线性时间非比...

#算法#数据结构#排序算法
Pytorch学习08——CNN卷积神经网络

完整代码import torchimport torch.nn as nnimport torch.utils.data as Dataimport torchvision# 数据库模块import osimport matplotlib.pyplot as pltfrom matplotlib import cmimport numpy as nptorch.manual_seed(1)# re

#神经网络#深度学习#pytorch
图神经网络

图神经网络介绍为什么用图表示数据GNN与network embedding(图嵌入)GNN与Graph Kernel介绍为什么用图表示数据深度学习在许多领域的成功部分归功于快速发展的计算资源(如GPU)、大训练数据的可用性,以及深度学习从欧几里得数据(如图像、文本和视频)中提取潜在表示的有效性。以图像数据为例,我们可以将图像表示为欧几里得空间中的规则网格。卷积神经网络(CNN)能够利用图像数据的移

#神经网络#深度学习#pytorch
算法工程师(机器学习)面试题目4---深度学习算法

基础问题CNN1.卷积神经网络和全连接网络的根本不同之处在哪里两者之间的唯一区别是神经网络相邻两层的连接方式。在全连接神经网络中,每相邻两层之间的节点都有边相连,而对于卷积神经网络,相邻两层之间只有部分节点相连;全连接网络缺点: 参数太多,计算速度变慢,容易过拟合卷积神经网络:局部链接;权值共享;参数更少,降低过拟合的可能卷积神经网络一般是由卷积层、汇聚层和全连接层交叉堆叠而成的前馈神经网络。RN

#算法#机器学习#深度学习
机器学习中的距离计算方法

机器学习中的距离计算方法?参考博文在做很多研究问题时常常需要估算不同样本之间的相似性度量(Similarity Measurement),这时通常采用的方法就是计算样本间的“距离”(Distance)。采用什么样的方法计算距离是很讲究,甚至关系到分类的正确与否。1. 欧式距离欧氏距离是一个通常采用的距离定义,指两个点之间的真实距离二维:三维:n维:2. 曼哈顿距离我们可以定义曼哈顿距离的正式意义为

#机器学习#线性代数#算法 +1
论文笔记——Generative Adversarial Nets生成对抗网络

Abstract1 Introduction2 Related work3 Adversarial nets4 Theoretical Results5 Experiments6 Advantages and disadvantages7 Conclusions and future work

#神经网络#机器学习#深度学习
算法工程师(机器学习)面试题目1---大致分类、主要内容、考点汇总

算法工程师---机器学习机器学习/算法工程师1. 数学基础1.1 微积分1.2概率论1.3 线性代数2. 机器学习算法2.1分类2.2 回归2.3 聚类2.4 推荐系统2.5 模型融合和提升2.6 其他3. 深度学习算法4. 数据结构与算法5.编程语言、工具和环境6.自然语言处理7.计算机基础7.1 操作系统7.2 计算机网络7.3 数据库8.场景题机器学习/算法工程师1. 数学基础1.1 微积分

#机器学习#神经网络#算法
机器学习中的损失函数(Loss Function)介绍、说明

损失函数损失函数介绍常见的损失函数1.对数损失函数(Logloss)2. hinge loss 合页损失函数3. exp-loss 指数损失函数4. cross-entropy loss 交叉熵损失函数5. quadratic loss 平方误差损失函数6. absolution loss (绝对值损失函数)7. 0-1 loss (0-1损失函数)损失函数介绍解决一个机器学习问题主要有两部分:数

#机器学习#算法#神经网络
机器学习----EM算法

最大期望算法(Expectation-maximization algorithm)—EM算法定义概率模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐性变量。计算步骤第一步是计算期望(E),利用对隐藏变量的现有估计值,计算其最大似然估计值;第二步是最大化(M),最大化在E步上求得的最大似然值来计算参数的值。M步上找到的参数估计值被用于下一个E步计算中,这个过程不断交

#神经网络#机器学习#算法 +2
    共 25 条
  • 1
  • 2
  • 3
  • 请选择