logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

安装pattern出错mysql_config not found

Pattern是Python的一个web挖掘模块。它有工具:1. 数据挖掘: web服务(谷歌,Twitter,维基百科),网络爬虫,HTML DOM解析器2. 自然语言处理: 词性标记,n-gram搜索,情感分析,WordNet3. 机器学习: 向量空间模型,聚类,分类(KNN, SVM,感知器)4. 网络分析: 图形中心性和可视化。它有很好的文档,经过了350多个单元测试,并附带了50多个示例

#python
loss函数之KLDivLoss

KL散度KL散度,又叫相对熵,用于衡量两个连续分布之间的距离,公式如下:DKL(p∥q)=∑i=1Np(xi)⋅(log⁡p(xi)−log⁡q(xi))D_{K L}(p \| q)=\sum_{i=1}^{N} p\left(x_{i}\right) \cdot\left(\log p\left(x_{i}\right)-\log q\left(x_{i}\right)\right)DKL​(

显卡,GPU,显卡驱动,CUDA ,CUDA Toolkit之间的关系

相关知识收集于网络,主要来自显卡、GPU和CUDA简介GPU 和显卡是什么关系?显卡、显卡驱动、cuda 之间的关系是什么?并增加了一些自己的理解,如有错误,欢迎指正如有侵权请联系删除显卡显卡(Video card、Display card、Graphics card、Video adapter)全称显示接口卡,是计算机最基本配置、最重要的配件之一。就像电脑联网需要网卡,主机里的数据要显示在屏幕上

loss函数之PoissonNLLLoss,GaussianNLLLoss

PoissonNLLLoss真实标签服从泊松分布的负对数似然损失泊松分布:P(Y=k)=λkk!e−λP(Y=k)=\frac{\lambda^{k}}{k !} e^{-\lambda}P(Y=k)=k!λk​e−λk是target$\lambda$ 是inputtarget∼Poisson(input)loss(input,target)=input−target∗log(input)+log

loss函数之MultiMarginLoss, MultiLabelMarginLoss

MultiMarginLoss多分类合页损失函数

loss函数之L1Loss,MSELoss,SmoothL1Loss, HuberLoss

L1Loss平均绝对误差(MAE),用于回归模型对于包含NNN个样本的batch数据 D(x,y)D(x, y)D(x,y),losslossloss计算如下:loss=1N∑n=1Nlnloss=\frac{1}{N} \sum_{n=1}^{N} l_{n}loss=N1​∑n=1N​ln​其中,ln=∣xn−yn∣l_{n}=\left|x_{n}-y_{n}\right|ln​=∣xn​−

linux里用户权限:~$,/$,~#,/#的区别与含义

转自博客。仅供自己学习使用,如有侵权,请联系删除$表明是非root用户登录,#表示是root用户登录,它们是终端shell的命令提示符。而/是根节点, ~是 home如果以root账号登陆,~ 是 /root/ , /是 /如果以name 登陆,~ 是 /home/name/ , /是 /cd命令介绍:例如当前在/mnt/mnt/usb/usb1目录下cd /到 /cd ......到 /mnt/

查看电脑的CPU个数,核数,逻辑核数

转自在Linux中查询CPU的核数与 Windows下查看电脑的CPU个数,核心数,线程数定义CPU个数: 电脑插槽上的CPU个数, 物理cpu数量CPU核数:一个物理CPU上面能处理数据的芯片组的数量CPU逻辑核数:一般情况,我们认为一颗cpu可以有多核,加上intel的超线程技术(HT), 可以在逻辑上把一个物理线程模拟出两个线程来使用,使得单个核心用起来像两个核一样,以充分发挥CPU的性能总

#linux#windows
pytorch模型转onnx遇到的问题记录

1 .AttributeError: module ‘onnxruntime‘ has no attribute ‘InferenceSession‘解决方法FAIL : Non-zero status code returned while running Add node.尝试过很多方法,发现最终是环境问题,重新安装环境即可,注意cuda版本和onnxruntime的对应关系我是使用镜像htt

#pytorch#docker#深度学习
void onnxruntime::BroadcastIterator::Append(int64_t, int64_t) axis == 1 || axis == largest was false

import torchimport torch.nn as nnimport osfrom allennlp.nn import utiltorch.manual_seed(1)os.environ["CUDA_VISIBLE_DEVICES"] = "1"class Test(nn.Module):def __init__(self):super().__init__()passdef for

#pytorch#深度学习#python
    共 24 条
  • 1
  • 2
  • 3
  • 请选择