
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
项目场景:调用hugging face公开模型数据集中的transformers模型。问题描述默认源在国内下载模型过慢,甚至不开始下载。原因分析:部分博客解决方案为:在from_pretrained中添加参数mirror="tuna" 将下载源替换为清华源。tokenizer = BertTokenizer.from_pretrained("bert-base-uncased", mirror="
vscode远程连接服务器问题汇总吐槽问题1服务器用户名和key改变后,无法port forwarding解决方案:问题二 建立连接过程中卡住或者报XHRfailed解决方案:问题3: 未知原因的could not establish connection吐槽vscode连远程真的很简单,只需一个ssh-remote插件,设置简单(相比pycharm)。但是总有一些小问题,比如连接不稳定,无需本地
后将cuda改为‘cpu’模式,发现报错为index溢出,定位错误在tokenizer,经检查发现是BERT和XLM的tokenizer中的pad_token_id是不同的,前者为0,后者为1,改正后,即可运行。(2)tokenizer和language model不匹配;经检查代码,发现匹配无误;(4)cuda版本问题;由于是改代码,前面代码未出现该问题,因此不考虑该假设。(3)维度存在不一致;

项目场景:调用hugging face公开模型数据集中的transformers模型。问题描述默认源在国内下载模型过慢,甚至不开始下载。原因分析:部分博客解决方案为:在from_pretrained中添加参数mirror="tuna" 将下载源替换为清华源。tokenizer = BertTokenizer.from_pretrained("bert-base-uncased", mirror="
vscode远程连接服务器问题汇总吐槽问题1服务器用户名和key改变后,无法port forwarding解决方案:问题二 建立连接过程中卡住或者报XHRfailed解决方案:问题3: 未知原因的could not establish connection吐槽vscode连远程真的很简单,只需一个ssh-remote插件,设置简单(相比pycharm)。但是总有一些小问题,比如连接不稳定,无需本地
项目场景:调用hugging face公开模型数据集中的transformers模型。问题描述默认源在国内下载模型过慢,甚至不开始下载。原因分析:部分博客解决方案为:在from_pretrained中添加参数mirror="tuna" 将下载源替换为清华源。tokenizer = BertTokenizer.from_pretrained("bert-base-uncased", mirror="







