logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

基于PyTorch的深度学习——机器学习1

强化学习把学习看作一个试探评价的过程,Agent选择一个动作用于环境,环境接受该动作后状态发生变化,同时产生一个强化信号(奖或惩)反馈给Agent,Agent根据强化信号和环境当前状态再选择下一个动作,选择的原则是使受到正强化(奖)的概率增大。数据预处理是机器学习过程中必不可少的重要步骤,特别是在生产环境中的机器学习,数据往往是原始、未加工和未处理过的,数据预处理常常占据整个机器学习过程的大部分时

文章图片
#深度学习#机器学习#pytorch
基于PyTorch的深度学习2——Numpy与Tensor

Tensor自称为神经网络界的Numpy,它与Numpy相似,二者可以共享内存,且之间的转换非常方便和高效。不过它们也有不同之处,最大的区别就是Numpy会把ndarray放在CPU中进行加速运算,而由Torch产生的Tensor会放在GPU中进行加速运算。1.创建创建Tensor的方法有很多,可以从列表或ndarray等类型进行构建,也可根据指定的形状构建。

文章图片
#深度学习#pytorch#numpy
基于PyTorch的深度学习6——数据处理工具箱1

自定义数据集需要继承这个类,并实现两个函数,一个是__len__,另一个是__getitem__,前者提供数据的大小(size),后者通过给定索引获取数据和标签。1)datasets:提供常用的数据集加载,设计上都是继承自torch.utils.data.Dataset,主要包括MMIST、CIFAR10/100、ImageNet和COCO等。__getitem__一次只能获取一个数据,所以需要通

文章图片
#深度学习#pytorch#人工智能
基于PyTorch的深度学习5—神经网络工具箱

nn中的层,一类是继承了nn.Module,其命名一般为nn.Xxx(第一个是大写)​,如nn.Linear、nn.Conv2d、nn.CrossEntropyLoss等。另一类是nn.functional中的函数,其名称一般为nn.funtional.xxx,如nn.funtional.linear、nn.funtional.conv2d、nn.funtional.cross_entropy等。

文章图片
#深度学习#pytorch#神经网络
免疫肽组学数据库(ipMSDB)

ipMSDB 是一个收录了来自健康组织、细胞系和肿瘤样本的 HLA-呈递肽段的数据库。该数据库用于预测哪些肽段(如突变肽段或肿瘤抗原肽段)最有可能被患者的 HLA-I 或 HLA-II 分子呈递给 T 细胞,从而激发免疫反应。如果一个突变肽段在 ipMSDB 中有对应的“精确匹配的野生型肽段”(即非突变状态下的同源肽段),它被 CD8+ T 细胞自发识别并诱导免疫反应的概率会增加 5 倍。表明,突

#r语言
基于PyTorch的深度学习——机器学习3

在多分类任务中,经常采用softmax激活函数+交叉熵损失函数,因为交叉熵描述了两个概率分布的差异,然而神经网络输出的是向量,并不是概率分布的形式。此时一般不宜选择sigmoid、tanh激活函数,因它们的导数都小于1,尤其是sigmoid的导数在[0,1/4]之间,多层叠加后,根据微积分链式法则,随着层数增多,导数或偏导将指数级变小。回归问题预测的不是类别,而是一个任意实数。PyTorch中已集

文章图片
#深度学习#机器学习#pytorch
基于PyTorch的深度学习2——Numpy与Tensor

Tensor自称为神经网络界的Numpy,它与Numpy相似,二者可以共享内存,且之间的转换非常方便和高效。不过它们也有不同之处,最大的区别就是Numpy会把ndarray放在CPU中进行加速运算,而由Torch产生的Tensor会放在GPU中进行加速运算。1.创建创建Tensor的方法有很多,可以从列表或ndarray等类型进行构建,也可根据指定的形状构建。

文章图片
#深度学习#pytorch#numpy
基于PyTorch的深度学习6——数据处理工具箱2

下面我们利用ImageFolder读取不同目录下的图片数据,然后使用transforms进行图像预处理,预处理有多个,我们用compose把这些操作拼接在一起。还可以自己定义一个Python Lambda表达式,如将每个像素值加10,可表示为:transforms.Lambda(lambda x:x.add(10))。形状为(H,W,C)的Numpy.ndarray转换成形状为[C,H,W]​,取

文章图片
#深度学习#pytorch#人工智能
基于PyTorch的深度学习2——Numpy与Tensor

Tensor自称为神经网络界的Numpy,它与Numpy相似,二者可以共享内存,且之间的转换非常方便和高效。不过它们也有不同之处,最大的区别就是Numpy会把ndarray放在CPU中进行加速运算,而由Torch产生的Tensor会放在GPU中进行加速运算。1.创建创建Tensor的方法有很多,可以从列表或ndarray等类型进行构建,也可根据指定的形状构建。

文章图片
#深度学习#pytorch#numpy
Fragpipe固定修饰和酶解

在自己的机子上看fragpipe的固定修饰的mass delta,C-Term Protein和N-Term Protein均是默认0,C(cysteine)默认57.02146。但在另一台机子上,C-Term Protein和N-Term Protein分别默认为-0.984016,216.04225,应该和蛋白质末端残基有关。另外在可变修饰,两台机子装的fragpipe提供的示例种类也有区别,

#r语言
    共 18 条
  • 1
  • 2
  • 请选择