logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

区别 |python |[-1]、[:-1]、[::-1]、[2::-1]的使用

格式list[start :end :方向]start——>开始下标位置end——>结束下标位置方向——> 读取方向。默认正向,-1表示反方向读取import numpy as npa=[1,2,3.4,5]print(a)[ 1 2 3 4 5 ]print(a[-1]) # 正向读取最后一个元素[5]print(a[:-1])# 正向除了最后一个全部读取[ 1 2 3 4 ]

#numpy
VS实现格式化代码及代码缩进

格式化代码 选中需要缩进的代码段,然后ctrl + k + f 即可实现格式化 缩进 先后缩进:直接Tab 先前缩进:Shift+Tab

#visual studio
协同训练(co-training)

协同训练(co-training)是非常有效的半监督学习方法,但必须将特征集自然分割成两个可以充足构造分类器的子集合,并且要求它们之间在给定的类别下条件相互独立。Q:那是不是说如果数据有多视角的情况下,co-training比self-training好,而数据只有单一视角的时候,两者差不多呢?A:co-training就是因为有多视图才叫co-training,如果只有单一视图,就没有co-tr

协同训练(co-training)

协同训练(co-training)是非常有效的半监督学习方法,但必须将特征集自然分割成两个可以充足构造分类器的子集合,并且要求它们之间在给定的类别下条件相互独立。Q:那是不是说如果数据有多视角的情况下,co-training比self-training好,而数据只有单一视角的时候,两者差不多呢?A:co-training就是因为有多视图才叫co-training,如果只有单一视图,就没有co-tr

Failed building wheel for tokenizers

安装transfomers成功了,但是tokenizers怎么也装不上。自己下载,注意与tranformers版本的对应。那策略就是自己分开安装tokenizer。如图,安装了rust也同样报错。可以直接pip,也可以去。

Failed building wheel for tokenizers

安装transfomers成功了,但是tokenizers怎么也装不上。自己下载,注意与tranformers版本的对应。那策略就是自己分开安装tokenizer。如图,安装了rust也同样报错。可以直接pip,也可以去。

启动bert-server报错TypeError: cannot unpack non-iterable NoneType object

查了一圈,是因为tensorflow版本太高,我装的2.0的版本,换成1.15就好了。

#bert#tensorflow#python
huggingface加载预训练模型

在加载前需要统一模型文件名。比如bin文件都得叫pytorch_model.bin,配置文件都得叫config.json,词汇文件都得叫vocab.txt或json。这个是因为源码中的判断要求,所以别问,问就是改名。(https://blog.csdn.net/qq_33293040/article/details/109534923)RoBERTa中的merge.txt和vocab.json是什

#pytorch#python
pytorch求 tensor的元素个数 | python中*args和**kwargs的含义

在学pytorch的过程中遇到了要求tensor元素个数的操作,从而有了以下代码:import torchimport numpy as npdef test():torch.manual_seed(1)a = torch.randn(3, 4)print(a)print(a.size())print(*a.size())print(np.multiply(*a.size()))test()输出:

#pytorch#python#深度学习
    共 25 条
  • 1
  • 2
  • 3
  • 请选择