logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习subword分词BPE

BPE:这是一种流行分词算法,可以有效的平衡词汇表大小和步数,分词采用共现性。步骤:1.准备足够大的训练语料2.确定期望的subword词表大小(超参)3.将单词拆分为字符序列并在末尾添加后缀"</w>",这样就可以统计单词频率。比如一开始有一个l字母,现在编程l</w>5,就说明出现了五次。停止符</w>的意义在于表示subword是词后缀。每次合并后词表可能出现三种变化:+1:表明加入合并后的

#深度学习#人工智能
深度学习GRU模型原理

是一种改进的循环神经网络(RNN),专为解决传统RNN的(梯度消失/爆炸)而设计。其核心是通过动态控制信息的流动。

文章图片
#深度学习#gru#人工智能
卷积神经网络实战(4)代码详解

"""一个用于图像分类的卷积神经网络(CNN)模型""""""初始化CNN模型结构Args:activation: 激活函数类型,可选"relu"或"selu""""# 设置激活函数# 卷积层定义# 输入形状: (batch_size, 1, 28, 28)self.conv1 = nn.Conv2d(in_channels=1, out_channels=32, kernel_size=3, p

文章图片
#cnn#人工智能#神经网络
为什么文本训练需要循环神经网络

self.rnn = nn.RNN(embedding_dim, hidden_dim, num_layers=num_layers, batch_first=True, bidirectional=bidirectional) #bidirectional是双向的#把final_hidden去除轴size为1的,和x进行比较,里边元素是否相等# 取最后一个时间步的输出 (这也是为什么要设置pad

文章图片
#rnn#人工智能#深度学习
深度学习GRU模型原理

是一种改进的循环神经网络(RNN),专为解决传统RNN的(梯度消失/爆炸)而设计。其核心是通过动态控制信息的流动。

文章图片
#深度学习#gru#人工智能
某计算机存储器按字节编址,主存地址空间大小为64 MB 现用4 MB ×8位的RAM芯片组成32 MB的主存储器 ,则存储器地址寄存器MAR的位数至少是多少?

首先我们要知道主存的地址空间,这个到底是什么东西,这个地址要能够描述主存空间的所有地址,所以这里MAR应该是64MB而不是32MB,所以MAR应该等于64MB也就是2的26次方位;

#硬件架构
构建自己的数据集

需要将标签数据转换为张量,并调整形状以适应模型训练的要求,.float的作用在于如果原始标签是整数,那么需要显式转换为浮点数。原本y是那么多行,转换成张量后,就变成一维的了,一行多列。然后是DataLoader。验证和测试就不随机了。

文章图片
#深度学习#人工智能
深度学习GRU模型原理

是一种改进的循环神经网络(RNN),专为解决传统RNN的(梯度消失/爆炸)而设计。其核心是通过动态控制信息的流动。

文章图片
#深度学习#gru#人工智能
卷积神经网络实战(2)

一开始conv1,第一层卷积层,去运算的时候,以前全连接的时候直接展平,现在是三维的,通道数是1(黑白照片),卷积的时候卷积核也是(1,3,3),但现在卷积核的尺寸实际上是立方体,虽然写的是2d,这是接口的这么一个设计,之所以是2d是因为在两个维度上进行移动(上下左右),不像以前的全连接是一维的必须展平。nn.MaxPool2d(2,2),前面一个2代表池化核大小是2*2,后面的2代表步长。池化一

#cnn#人工智能#神经网络
深度学习——Tensor

1.常数:scaler:0阶张量——标量2.向量:vector:1阶张量3.矩阵:matrix:2阶张量4.三阶张量。

文章图片
#深度学习#人工智能
    共 33 条
  • 1
  • 2
  • 3
  • 4
  • 请选择