logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

机器学习(一)模型评估与选择(上)

模型评估与选择1. 误差与过拟合1.1. 误差及其类型1.2. 过拟合/欠拟合2. 评估方法 1. 误差与过拟合         我们在训练模型上,希望泛化误差越小越好,在模型选择上,我们则需要从这三个方面:评估方法、性能度量、比较验证 来考虑,最后选出最优模型。 1.1. ...

生成对抗网络(一)GAN讲解

生成对抗网络GAN讲解 ABSTRACT 1. INTRODUCTION2.Related work        原文:Generative Adversarial Nets代码:收录:NIPS(NeurIPS) 2014 (Conference and Workshop on Neural Inform...

机器学习(三)回归问题之对数几率回归

          对于二分类任务,其输出的标签 y∈{0,1}y\in \{0, 1\}y∈{0,1},而线性回归模型产生预测值 z=wTx+bz=w^{T}x+bz=wTx+b是一个实数,因此需要通过一个模型映射到 0/1值,此时最理想的是“单位阶跃函数”,如下图:  ...

生成对抗网络(一)GAN讲解

生成对抗网络GAN讲解 ABSTRACT 1. INTRODUCTION2.Related work        原文:Generative Adversarial Nets代码:收录:NIPS(NeurIPS) 2014 (Conference and Workshop on Neural Inform...

机器学习(三)回归问题之Robust Regression

          我们知道最小二乘法的 误差函数 是 均方L2范数,接下来则是讨论 为什么均方回归会对异常点outliers敏感 以及 有没有更好的误差函数使得更好的处理outliers?        &nb...

机器学习(四)监督学习---NN、KNN

      前言: 我们所了解的监督学习有以下多种,希望都能了解与运用。         最近邻与K近邻(NN、KNN)         K近邻...

机器学习之GD、SGD

机器学习之GD、SGD1. 梯度下降法 GD2. 随机梯度下降法 SGD 1. 梯度下降法 GD 2. 随机梯度下降法 SGDSGD和之前的GD区别在于,GD是对函数进行求导,对整个训练集每个样本来计算,但是SGD则是对一个或者多个样本来操作,例如有10000个样本,但每次只对100个或1000个来计算梯度,从而更新参数;SGD存在一个弊端:因为求得的梯度...

迁移学习——域自适应

Domain Adaptation 1. 源域与目标域区别在哪? 2. 不同的域自适应方法 Reference        含义:在经典的机器学习中,当 源域 和 目标域 数据分布不同,但是两者的任务相同时,这种 特殊 的迁移学习就是域自适应(Domain Adaptation)   &

git clone遇到错误 fatal: unable to access ‘http://github.com/xxx‘: Failed to connect to github.com port

git clone出错 fatal: unable to access 'http://github.com/xxx': Failed to connect to github.com port使用命令git config --list查看git的配置信息,这里面可以看到user.name还有user.email如果没有的话不要慌,看下一步; git config --global us

pytorch中where方法介绍

 一、具体用法       torch.where(condition, x, y)→ 其中 x,y 必须是Tensor类型※ 共有三个输入参数,第一个是condition判断条件,第二个是符合条件时取设置值x,第三个是不满足条件的设置值y;     &nbs...

    共 36 条
  • 1
  • 2
  • 3
  • 4
  • 请选择