logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

ollama的问答服务接口

它的请求和响应格式与 OpenAI 的接口不同,更贴近 Ollama 的本地模型调用方式。它的设计目的是为了让开发者能够以 OpenAI 的 API 格式与 Ollama 的模型进行交互。:相比 OpenAI 的格式,Ollama 的原生接口更简洁,适合直接与 Ollama 服务交互。:请求体和响应体的结构是 Ollama 自定义的,与 OpenAI 的格式不兼容。:由于 OpenAI 兼容接口需

文章图片
#语言模型#人工智能
VLLM在linux下部署

本文介绍了如何通过Docker部署和运行vLLM(vLLM-OpenAI)镜像,以及如何通过pip安装vLLM并启动服务。首先,从Docker Hub拉取vLLM镜像,并使用特定命令启动容器,确保容器可以访问主机的共享内存。接着,通过pip安装vLLM,并确保CUDA版本为12.4。最后,启动vLLM服务并调用接口进行模型推理,示例中使用了“RolmOCR”模型,并通过OpenAI客户端进行交互,

#linux#服务器
python解析docx文档-Document

使用python的docx包,解析docx文档。

文章图片
#python#前端#linux
ollama部署

访问,下载对应系统 Ollama 客户端。对于linux系统,

文章图片
#人工智能#语言模型
dify环境部署

看到上述信息标识容器正常启动,在浏览器输入http:ip:port可以使用dify服务。执行up -d之后,在线下载镜像和启动容器。dify容器化部署参考官方文档,比较便捷。

#人工智能
pytorch中的zero_grad()函数的含义和使用

在反向传播计算时,梯度的计算是累加,但是每个batch处理时不需要和其它batch混合起来累加计算,所以对每个batch调用zero_grad将参数梯度置0。#如果不是每个batch清理依次梯度,而是两次或者多次清理,相当于提高了batch批次大小。optimizer.step()#更新参数,梯度被反向计算之后,调用函数进行所有参数更新。optimizer.zero_grad() ,用于将模型的参

文章图片
#pytorch#人工智能#python
ollama升级

文章介绍了在qwen3发布后,旧版ollama不再支持,需要升级的两种方法。第一种方法是通过下载新镜像并启动新容器,同时使用旧的模型文件进行映射。具体步骤包括停止并移除当前容器,然后使用docker run命令启动新容器,并指定GPU、数据卷和端口等参数。第二种方法是替换ollama的二进制文件,从新部署的容器中获取二进制文件,并拷贝到目标容器中,最后重启容器完成更新。这两种方法均能有效实现oll

#云原生#人工智能#开发语言
ollama部署

访问,下载对应系统 Ollama 客户端。对于linux系统,

文章图片
#人工智能#语言模型
pytorch中的zero_grad()函数的含义和使用

在反向传播计算时,梯度的计算是累加,但是每个batch处理时不需要和其它batch混合起来累加计算,所以对每个batch调用zero_grad将参数梯度置0。#如果不是每个batch清理依次梯度,而是两次或者多次清理,相当于提高了batch批次大小。optimizer.step()#更新参数,梯度被反向计算之后,调用函数进行所有参数更新。optimizer.zero_grad() ,用于将模型的参

文章图片
#pytorch#人工智能#python
Excel表格转markdown格式

markdown格式的数据可以存入大模型的知识库中,使用大模型进行excel表格内容的检索温度。3.查找标题部分,有些标题包含合并单元格,将其进行拆解;拆解后转为markdown格式;4.处理body部分,从标题往下,转markdown结构。2.有些表格开头是表格内容描述,将其查找出来;1.通过pandas读取excel文件;

文章图片
    共 13 条
  • 1
  • 2
  • 请选择