logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LlaMA_Factory实战微调VL大模型

启动训练后使用显存大小:50924MiB,143条数据,15Epoch所用时间为:40min。首先找到data文件夹下方的mllm_demo.json,确认微调VL模型时的数据格式模板,然后按照模板,制作对应的指令微调数据集。3、进入dataset_info.json,添加数据集,修改文件夹名称和对应标注json文件名即可。打开identity.json文件,修改模型初步认知,确认微调后模型的名称

查看cuda是否可用

【代码】查看cuda是否可用。

#深度学习#人工智能
LlaMA_Factory实战微调VL大模型

启动训练后使用显存大小:50924MiB,143条数据,15Epoch所用时间为:40min。首先找到data文件夹下方的mllm_demo.json,确认微调VL模型时的数据格式模板,然后按照模板,制作对应的指令微调数据集。3、进入dataset_info.json,添加数据集,修改文件夹名称和对应标注json文件名即可。打开identity.json文件,修改模型初步认知,确认微调后模型的名称

Python利用 flask 对代码块进行封装

先从原始代码体说明,一下是一个最简单的flask实现代码。注意:返回值格式,运行路径,中文页面内容乱码。1、对代码体进行封装。

#flask#python
ValueError: Tokenizer class BaichuanTokenizer does not exist or is not currently imported已解决

报错:ValueError: Tokenizer class BaichuanTokenizer does not exist or is not currently imported。环境:使用 AutoTokenizer 加载量化后的百川模型。添加 trust_remote_code=True。可以在量化时对 Tokenizer 进行保存。

#深度学习#机器学习#人工智能
Some weights of the model checkpoint at bert_pretrain were not used when initializing BertModel

Some weights of the model checkpoint at bert_pretrain were not used when initializing BertModel参数不匹配

#深度学习
BaiChuan13B-GPTQ量化详解

1、按照网上搜索的一些代码,如使用auto_gptq原生库进行训练后量化,可能会正常量化,但是在线推理时会出现如找不到bin文件或者tf文件,即模型权重文件,所以和网上大部分代码不同的地方在于,需要提前保存对应模型的权重文件,如果是BaiChuan13B,那么在进行模型量化前,对其进行保存。按照上述步骤,此时模型量化文件保存成功,接下来就是模型在线推理。

#深度学习#人工智能#pytorch
解决VsCode不显示环境名称

按下组合键Windows + R以打开运行窗口。在VSCODE终端中激活运行的conda环境,但是只显示PS,并不显示环境名称。从普通模式转至管理员模式,输入以下PowerShell命令然后按下回车键。方式1:在Cortana搜索栏中打开带管理员权限的PowerShell。Windows PowerShell会以当前用户的权限去执行。在Windows 10的任务栏搜索框输入powershell。方

#vscode
对json数据进行特定筛选、去重、写入、去空

目标:筛选出该数据格式list中每个字典中的sshy和zyyw数据,并赋予label和text关键字。4、最终得到的数据即为即没有空值,格式也正确的数值。1、遍历json格式数据,并从中取出对应数据。3、但是得到的数据中,有很多空值,需要剔除。

#json
    共 11 条
  • 1
  • 2
  • 请选择