logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

pytorch如何查看tensor和model在哪个GPU上以及指定GPU设备

【代码】pytorch如何查看tensor和model在哪个GPU上以及指定GPU设备。

#pytorch#人工智能#python +1
pycharm 使用git命令

pycharm中的Terminal无法使用git命令–报错"git"不是内部或外部命令,也不是可运行的程序或批处理文件pycharm 使用git 命令

#git#pycharm#ide
李沐动手学深度学习V2-transformer和代码实现

自注意力同时具有并行计算和最短的最大路径长度这两个优势。因此使用自注意力来设计深度架构是很有吸引力的。对比依赖循环神经网络实现输入表示的自注意力模型,transformer模型完全基于注意力机制,没有任何卷积层或循环神经网络层。尽管transformer最初是应用于在文本数据上的序列到序列学习,但现在已经推广到各种现代的深度学习中,例如语言、视觉、语音和强化学习领域。......

#transformer#nlp
python实现快速排序算法

快速排序(英语:Quicksort),又称划分交换排序(partition-exchange sort),通过一趟排序将要排序的数据分割成独立的两部分,其中一部分的所有数据都比另外一部分的所有数据都要小,然后再按此方法对这两部分数据分别进行快速排序,整个排序过程可以递归进行,以此达到整个数据变成有序序列。因此,在到达大小为一的数列前,我们只要作log n次嵌套的调用。这个意思就是调用树的深度是O(

#排序算法#算法#数据结构 +1
python 一次性取出dict的多个key对应的多个value值

主要是由于在coding过程中,有时需要取出很多我们需要的key对应的value来处理。默认输出为按照key排序的序列。

文章图片
#python#开发语言
ubuntu 查看服务器的GPU所有用户使用情况

nvidia-smi通过输出得到可以得到GPU占用情况和主要使用GPU的进程下图所示:根据结果可以看到进程1081543在跑训练。

#ubuntu#linux#服务器
李沐动手学深度学习V2-NLP文本预处理和代码实现

对于序列数据处理问题,上篇文章:李沐动手学深度学习V2-序列模型和代码实现评估了所需的统计工具和预测时面临的挑战,这样的数据存在许多种形式,文本是最常见例子之一。 例如一篇文章可以被简单地看作是一串单词序列,甚至是一串字符序列。文本的常见预处理步骤:首先从H.G.Well的时光机器中加载文本。这是一个相当小的语料库,只有30000多个单词,而现实中的文档集合可能会包含数十亿个单词。下面的函数将数据

#深度学习#pytorch#nlp +2
李沐动手学深度学习v2-目标检测中的锚框和代码实现

本节锚框代码实现,使用了很多Pytorch内置函数,如果有对应函数看不懂的地方,可以查看前面博客对相应函数的具体解释,如下链接所示:目标检测算法通常会在输入图像中采样大量的区域,然后判断这些区域中是否包含我们感兴趣的目标,并调整区域边界从而更准确地预测目标的真实边界框(ground-truth bounding box)。 不同的模型使用的区域采样方法可能不同。 这里介绍其中的一种方法:以每个像素

#深度学习#目标检测#pytorch +2
    共 91 条
  • 1
  • 2
  • 3
  • 10
  • 请选择