
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
对于序列数据处理问题,上篇文章:李沐动手学深度学习V2-序列模型和代码实现评估了所需的统计工具和预测时面临的挑战,这样的数据存在许多种形式,文本是最常见例子之一。 例如一篇文章可以被简单地看作是一串单词序列,甚至是一串字符序列。文本的常见预处理步骤:首先从H.G.Well的时光机器中加载文本。这是一个相当小的语料库,只有30000多个单词,而现实中的文档集合可能会包含数十亿个单词。下面的函数将数据
机器翻译的数据集是由源语言和目标语言的文本序列对组成的,因此需要一种完全不同的方法来预处理机器翻译数据集, 而不是复用语言模型的预处理程序。首先,下载一个由Tatoeba项目的双语句子对组成的“英-法”数据集,数据集中的每一行都是制表符分隔的文本序列对,序列对由英文文本序列和翻译后的法语文本序列组成。注意每个文本序列可以是一个句子,也可以是包含多个句子的一个段落。在将英语翻译成法语的机器翻译问题中
本节锚框代码实现,使用了很多Pytorch内置函数,如果有对应函数看不懂的地方,可以查看前面博客对相应函数的具体解释,如下链接所示:目标检测算法通常会在输入图像中采样大量的区域,然后判断这些区域中是否包含我们感兴趣的目标,并调整区域边界从而更准确地预测目标的真实边界框(ground-truth bounding box)。 不同的模型使用的区域采样方法可能不同。 这里介绍其中的一种方法:以每个像素
函数:requires_grad_(requires_grad=True)

torch.numel(),如下图所示:返回输入张量中元素的总数。二. torch.shape解析1. torch.shape解析返回输入tensor张量的维度大小三. torch.size()函数解析1.torch.size()函数解析跟torch.shape效果相同,也是返回输入tensor张量的维度大小。四.torch.reshape()函数解析1. 官网链接torch.reshape(),
1. NiNLeNet、AlexNet和VGG都有一个共同的设计模式:通过一系列的卷积层与汇聚层来提取空间结构特征;然后通过全连接层对特征的表征进行处理。 AlexNet和VGG对LeNet的改进主要在于如何扩大和加深这两个模块。而NiN模型去除了全连接层模块,保留了特征的空间结构,,在每个像素的通道上面使用1x1卷积层(全连接层)。1.1 NiN块回想一下,卷积层的输入和输出由四维张量组成,张量
一. 实战Kaggle比赛:狗的品种识别(ImageNet Dogs)1. 介绍在这场比赛中,将识别120类不同品种的狗,这个数据集是ImageNet的数据集子集,与 CIFAR-10数据集中的图像不同, ImageNet数据集中的图像更高更宽,且尺寸不一。比赛网址:https://www.kaggle.com/c/dog-breed-identification比赛数据集分为训练集和测试集,分别
1.自定义层:#自定义层:目前如果存在一个在深度学习框架中还不存在的层。 在这些情况下,你必须构建自定义层。import torchimport torch.nn.functional as Ffrom torch import nn#构造一个没有任何参数的自定义层class CenteredLayer(nn.Module):def __init__(self):super().__init__(
前面博文介绍了nnn元语法模型,其中单词xtx_txt在时间步ttt的条件概率仅取决于前面n−1n-1n−1个单词。对于时间步t−(n−1)t-(n-1)t−(n−1)之前的单词,如果想将其可能产生的影响合并到xtx_txt上,需要增加nnn,导致模型参数的数量也会随之呈指数增长,因为词表V\mathcal{V}V需要存储∣V∣n|\mathcal{V}|^n∣V∣n个数字,因此与其将P(xt