logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

LLaMaFactory大模型微调lora_rank、lora_alpha参数

LoRA(Low-Rank Adaptation)是一种通过在原始模型上添加少量可训练参数来适应特定任务的技术,避免了重新训练整个大型模型,从而减少计算和存储需求。LoRA的核心在于低秩分解,将权重更新矩阵分解为两个低秩矩阵的乘积,其中lora_rank决定了低秩矩阵的秩,影响可训练参数的数量和模型表达能力。较低的lora_rank减少参数但可能限制任务适应。

#人工智能#机器学习#深度学习
ollama部署

访问,下载对应系统 Ollama 客户端。对于linux系统,

文章图片
#人工智能#语言模型
dify环境部署

看到上述信息标识容器正常启动,在浏览器输入http:ip:port可以使用dify服务。执行up -d之后,在线下载镜像和启动容器。dify容器化部署参考官方文档,比较便捷。

#人工智能
LLaMaFactory大模型微调lora_rank、lora_alpha参数

LoRA(Low-Rank Adaptation)是一种通过在原始模型上添加少量可训练参数来适应特定任务的技术,避免了重新训练整个大型模型,从而减少计算和存储需求。LoRA的核心在于低秩分解,将权重更新矩阵分解为两个低秩矩阵的乘积,其中lora_rank决定了低秩矩阵的秩,影响可训练参数的数量和模型表达能力。较低的lora_rank减少参数但可能限制任务适应。

#人工智能#机器学习#深度学习
pytorch中的zero_grad()函数的含义和使用

在反向传播计算时,梯度的计算是累加,但是每个batch处理时不需要和其它batch混合起来累加计算,所以对每个batch调用zero_grad将参数梯度置0。#如果不是每个batch清理依次梯度,而是两次或者多次清理,相当于提高了batch批次大小。optimizer.step()#更新参数,梯度被反向计算之后,调用函数进行所有参数更新。optimizer.zero_grad() ,用于将模型的参

文章图片
#pytorch#人工智能#python
ollama升级

文章介绍了在qwen3发布后,旧版ollama不再支持,需要升级的两种方法。第一种方法是通过下载新镜像并启动新容器,同时使用旧的模型文件进行映射。具体步骤包括停止并移除当前容器,然后使用docker run命令启动新容器,并指定GPU、数据卷和端口等参数。第二种方法是替换ollama的二进制文件,从新部署的容器中获取二进制文件,并拷贝到目标容器中,最后重启容器完成更新。这两种方法均能有效实现oll

#云原生#人工智能#开发语言
ollama部署

访问,下载对应系统 Ollama 客户端。对于linux系统,

文章图片
#人工智能#语言模型
pytorch中的zero_grad()函数的含义和使用

在反向传播计算时,梯度的计算是累加,但是每个batch处理时不需要和其它batch混合起来累加计算,所以对每个batch调用zero_grad将参数梯度置0。#如果不是每个batch清理依次梯度,而是两次或者多次清理,相当于提高了batch批次大小。optimizer.step()#更新参数,梯度被反向计算之后,调用函数进行所有参数更新。optimizer.zero_grad() ,用于将模型的参

文章图片
#pytorch#人工智能#python
Excel表格转markdown格式

markdown格式的数据可以存入大模型的知识库中,使用大模型进行excel表格内容的检索温度。3.查找标题部分,有些标题包含合并单元格,将其进行拆解;拆解后转为markdown格式;4.处理body部分,从标题往下,转markdown结构。2.有些表格开头是表格内容描述,将其查找出来;1.通过pandas读取excel文件;

文章图片
xinference linux系统下部署

Xorbits Inference(Xinference)是一个性能强大且功能全面的分布式推理框架。可用于大语言模型(LLM),语音识别模型,多模态模型等各种模型的推理。

文章图片
#人工智能
    共 12 条
  • 1
  • 2
  • 请选择