logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

ubuntu 上 nvidia-smi 没显示所有的GPU

一开始nvidia-smi运行的好好的,显示了所有的GPU及使用状态。但是当我跑了一个很占内存的程序之后(TSNE降维可视化,数据量比较大),其中一个GPU开始若隐若现,最后在nvidia-smi界面上消失,后来关闭TSNE降维的程序后,该GPU仍旧没有出现。网上搜了一些教程,这些教程最后的基本结论是:他们的卡烧坏了。所以我也以为我的卡烧坏了,一度很悲伤。后来因为主机比较卡,我重启了系统,GPU就

【转】世界顶级人工智能会议的总结

前言:本文转自世界顶级人工智能会议的总结_circle的专栏-CSDN博客_uai会议。据转载博客的作者说,这篇博客的内容转自南京大学周志华教授的博客,且原文链接已经找不到了。我转这篇文章主要原因是:在读文献时,会遇到一些会议论文,但是不同会议论文的水平参差不齐,该不该重视一篇问问,以及该不该相信论文的结果,是一个在读文献前与读文献中需要考虑的问题。自己目前并没有对所有数据挖掘的会议都很熟悉,不同

#人工智能#机器学习#深度学习
深度学习样本归一化到[0,1]还是[-1,1]

一般,我们需要对神经网络的输入样本进行归一化,通常有多种选择,比如归一化到[0,1],或归一化到[-1,1]。这两种方法,哪种归一化方法更好呢?还是没有区别。现在的实验经验,一般归一化后的数值沿原点对称最好,即归一化到[-1,1]可以期待取得更好的效果。因此,推荐在归一化时,把样本数据归一化到[-1,1],或者其他相对于原点对称的范围。对应的,似乎使用双极性激活函数(tanh)优于单极性激活函数(

错误调试:GPU 版 TensorFlow failed to create cublas handle: CUBLAS_STATUS_ALLOC_FAILED

如果你是使用 GPU 版 TensorFlow 的话,并且你想在显卡高占用率的情况下(比如玩游戏)训练模型,那你要注意在初始化 Session 的时候为其分配固定数量的显存,否则可能会在开始训练的时候直接报错退出:2017-06-27 20:39:21.955486: E c:\tf_jenkins\home\workspace\release-win\m\windows-gpu\py\35\t.

tensorflow 卷积:设定特定卷积核

有时想用tensorflow的conv2d的卷积操作,实现一些特定的滤波操作,如patch求和、计算梯度等,这时可以通过设计特定的卷积核来实现功能。先看tf.nn.conv2d的各个参数:tf.nn.conv2d (input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=None, name=None)参数...

pytorch 中使用GPU

import osimport sysimport torchimport argparseparser = argparse.ArgumentParser()parser.add_argument("gpu", type=str, choices=["0", "1", "2", "3", "4", "5", "6", "7"])args = parser.parse_args()os.envir

sci论文配色-科研论文可视化绘图配色(转送站)

转送站:sci论文配色-生信论文可视化绘图配色[个人收集]_Cccrush的博客-CSDN博客【SCI】中文核心、SCI论文绘图和图片配色_浪里小飞侠的博客-CSDN博客_sci配色推荐几个科研数据可视化用的配色网站_软件工具技巧_实用技巧_科研星球...

python强化学习--gym安装与使用

目前了解来看,gym 0.23.0 是一个比较常用的版本,后续的更新版本中(比如0.26.2),有许多功能的接口都有了改变,对python8,python9,python10的可视化显示也存在问题,但是在用pip安装时,默认的是安装0.26.2版本。最近开始学习强化学习,第一步肯定是要学会安装和使用pym,原本以为很简单,事实上确实很简单,但是遇到一个小问题,就是安装gym之后,在应用的过程中,游

文章图片
#python#开发语言
【转】世界顶级人工智能会议的总结

前言:本文转自世界顶级人工智能会议的总结_circle的专栏-CSDN博客_uai会议。据转载博客的作者说,这篇博客的内容转自南京大学周志华教授的博客,且原文链接已经找不到了。我转这篇文章主要原因是:在读文献时,会遇到一些会议论文,但是不同会议论文的水平参差不齐,该不该重视一篇问问,以及该不该相信论文的结果,是一个在读文献前与读文献中需要考虑的问题。自己目前并没有对所有数据挖掘的会议都很熟悉,不同

#人工智能#机器学习#深度学习
ValueError: could not broadcast input array from shape (*,*) into shape (*)

在将一个list转为np.array时出现如题错误。错误原因:list中各元素的数据的shape不一致解决办法:1)方法1. 将list中的多个元素沿某个公共维度串联成一个张量,然后保存每个元素的shape,用于张量分割复原。ps:我的列表存储的都是二维矩阵,其中一个维度相同,另一个维度不同,我沿着相同的维度串联完后保存2)方法2. 把list转换为字典dict,然后保存字典,应该能解决这个问题。

    共 152 条
  • 1
  • 2
  • 3
  • 16
  • 请选择