logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

nvidia gpu operator安装、升级及卸载

在使用Helm chart时,可以通过以下选项自定义设置。这些选项可在安装时通过--set进行指定。下表列出了最常用的选项。如果您希望使用自定义的驱动容器镜像(例如版本 465.27),可以按照以下步骤构建自定义的驱动容器镜像:通过在构建 Docker 镜像时指定参数来重建驱动容器。有关参考信息,驱动容器的 Dockerfile 可在Git 仓库中找到。使用适当的 Dockerfile 构建容器。

#云原生
LM Studio本地离线部署大语言模型

使用LM Studio快速体验大模型工具,免除Python环境及众多依赖组件的安装。可以切换不同类型的大语言模型,同时支持在windows、linux、mac等PC端部署。除了UI界面的chat对话使用之外,也可以在本地启动服务器,使用接口进行调试。本地路径查询如下,LM Studio-Mymodel-show in File Explorer。直接使用lmstudio下载模型会失败,本文采用离线

文章图片
#后端
llmperf测试大模型API性能

输出令牌吞吐量(令牌/秒):输出令牌吞吐量以每秒返回的平均输出令牌数来衡量。输出令牌吞吐量越高,表示 LLM 推理提供程序的吞吐量越高。输出令牌吞吐量,表示每秒返回的平均输出令牌数。第一个令牌的时间 (TTFT),表示 LLM 返回第一个令牌的持续时间。第一个令牌的时间(秒):对于流式处理应用程序,TTFT 是 LLM 返回第一个令牌之前的时间。测试案例,以本地部署的大模型为例,测试baichua

#后端
nvidia gpu operator安装、升级及卸载

在使用Helm chart时,可以通过以下选项自定义设置。这些选项可在安装时通过--set进行指定。下表列出了最常用的选项。如果您希望使用自定义的驱动容器镜像(例如版本 465.27),可以按照以下步骤构建自定义的驱动容器镜像:通过在构建 Docker 镜像时指定参数来重建驱动容器。有关参考信息,驱动容器的 Dockerfile 可在Git 仓库中找到。使用适当的 Dockerfile 构建容器。

#云原生
Python 关卡

书生大模型实战营

文章图片
#python
ChaosBlade混沌测试实践

ChaosBlade 是阿里巴巴开源的一款遵循混沌工程原理和混沌实验模型的实验注入工具,帮助企业提升分布式系统的容错能力,并且在企业上云或往云原生系统迁移过程中业务连续性保障。Chaosblade 是内部 MonkeyKing 对外开源的项目,其建立在阿里巴巴近十年故障测试和演练实践基础上,结合了集团各业务的最佳创意和实践。基础资源:比如 CPU、内存、网络、磁盘、进程等实验场景;Java 应用:

文章图片
#测试工具
vdbench测试存储性能

线程数(thread)一般设置为客户端CPU线程数总大小 grep ‘processor’ /proc/cpuinfo | sort -u | wc -l测试总数据量需要为客户端内存大小两倍测试读模型时需要清理客户端缓存信息 sync;

LM Studio本地离线部署大语言模型

使用LM Studio快速体验大模型工具,免除Python环境及众多依赖组件的安装。可以切换不同类型的大语言模型,同时支持在windows、linux、mac等PC端部署。除了UI界面的chat对话使用之外,也可以在本地启动服务器,使用接口进行调试。本地路径查询如下,LM Studio-Mymodel-show in File Explorer。直接使用lmstudio下载模型会失败,本文采用离线

文章图片
#后端
Qwen大模型实践之初体验

模型下载有两种方式,一种是直接运行大模型demo程序,模型会自动下载,该种方式默认会从huggingface进行下载,国内网络无法直接下载或者速度较慢;demo程序有多个可以进行测试,一种是官方readme文件中给出的实例程序,直接运行,prompt直接写在程序中,打印大模型的回复内容,这种方式没有交互方式;除了可以进行交互外,另外就是运行demo程序后,模型文件会一直加载到GPU中,不用每次推理

文章图片
#后端
llmperf测试大模型API性能

输出令牌吞吐量(令牌/秒):输出令牌吞吐量以每秒返回的平均输出令牌数来衡量。输出令牌吞吐量越高,表示 LLM 推理提供程序的吞吐量越高。输出令牌吞吐量,表示每秒返回的平均输出令牌数。第一个令牌的时间 (TTFT),表示 LLM 返回第一个令牌的持续时间。第一个令牌的时间(秒):对于流式处理应用程序,TTFT 是 LLM 返回第一个令牌之前的时间。测试案例,以本地部署的大模型为例,测试baichua

#后端
    共 21 条
  • 1
  • 2
  • 3
  • 请选择