logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

python 数据分析种,长宽格式的转换

# encoding=utf-8import numpy as npimport pandas as pd#长宽格式的转换# 1data = pd.read_csv('d:data/macrodata.csv')print 'data:=\n', dataprint 'data.to_records():=\n', data.to_records()print 'data.

浮点数学习笔记

一个机器浮点数由阶码和尾数及其符号位组成:尾数:用定点小数表示,给出有效数字的位数,决定了浮点数的表示精度;阶码:用定点整数形式表示,指明小数点在数据中的位置,决定了浮点数的表示范围。(2) 浮点数的标准格式(N=Re.m)为便于软件移植,使用 IEEE(电气和电子工程师协会)标准IEEE754 标准:尾数用原

Fréchet Inception Distance(FID)

摘自:https://www.cnblogs.com/gaona666/p/12376796.htmlFréchet Inception Distance(FID)计算 IS 时只考虑了生成样本,没有考虑真实数据,即 IS 无法反映真实数据和样本之间的距离,IS 判断数据真实性的依据,源于 Inception V3 的训练集 ------ ImageNet,在 Inception V3 的“世界观

#算法
如何解决神经网络训练时loss不下降的问题

转载自: https://blog.ailemon.me/2019/02/26/solution-to-loss-doesnt-drop-in-nn-train/如何解决神经网络训练时loss不下降的问题文章作者AI柠檬博主发布日期2019-02-26如何解决神经网络训练时loss不下降的问题有2条评论浏览量: 148,695(在苹果系统下,如果文章中的图片不能正常显示,请升级Safari浏览器到

#机器学习
如何解决神经网络训练时loss不下降的问题

转载自: https://blog.ailemon.me/2019/02/26/solution-to-loss-doesnt-drop-in-nn-train/如何解决神经网络训练时loss不下降的问题文章作者AI柠檬博主发布日期2019-02-26如何解决神经网络训练时loss不下降的问题有2条评论浏览量: 148,695(在苹果系统下,如果文章中的图片不能正常显示,请升级Safari浏览器到

#机器学习
mini-imagenet阿里云网盘分享

「mini-imagenet」,点击链接保存,或者复制本段内容,打开「阿里云盘」APP ,无需下载极速在线查看,视频原画倍速播放。链接:https://www.aliyundrive.com/s/sPddLpGHy7S

#tensorflow#机器学习
随机变量的方差

设X是一个随机变量,若E{[X-E(X)]^2} 存在,则称E{[X-E(X)]}为X的方差,记为D(X) 或Var(X),即D(X)=Var(x)=E{[X-E(X)]2}标准化(0-1)分布的方差均匀分布的方差方差的性质二项分布的方差设随机变量X~B(n,p),求D(X)由二项分布的定义知道,随机变量X是n重伯努利试验中试验成功的次数,且每次...

概率论之F-分布表

转载自:http://blog.csdn.net/Superwen_go/article/details/7689396F-分布表

k邻近算法(KNN)实例

文章转载自:https://www.cnblogs.com/angle6-liu/p/10416736.html一 k近邻算法原理k近邻算法是一种基本分类和回归方法.原理:K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中。如上图所示,有两类不同的样本数据,分别用蓝色的小正方形和红色的小三角形表示

#机器学习
    共 27 条
  • 1
  • 2
  • 3
  • 请选择