logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【人工智能】QWEN + RAG系统

结合qwen2.5-7b + bge-reranker-base + stella-base-zh-v2 组合成的rag系统。其中测试数据和模型需要自行下载,modelscope就可以。

文章图片
#人工智能
【人工智能】华为昇腾NPU-Vllm Ascend部署及镜像制作

本文介绍了两种在华为昇腾NPU上部署vLLM推理服务的方法:1)通过源码构建npu版vllm镜像,详细说明了vllm-ascend的安装步骤、模型测试方法及服务启动命令;2)使用官方预构建的vllm-ascend镜像,提供完整的容器启动脚本和API测试示例。文章包含LLM和Embedding模型的完整部署方案,涉及Dockerfile编写、启动脚本配置、一键部署脚本以及Python API调用代码

#人工智能#华为#语言模型 +2
【人工智能】qwen2.5-7b 部署推理

5.修改启动文件中的一些配置,然后运行官方的web_demo.py就可以访问了。2.可以克隆一下github官方demo。4.装完pytorch后可以验证一下。我直接附上一个依赖文件可以直接下载。环境Ubuntu20.04。1. 从魔搭下载模型权重。

#python#conda#pytorch +1
【人工智能】华为昇腾NPU-Vllm Ascend部署及镜像制作

本文介绍了两种在华为昇腾NPU上部署vLLM推理服务的方法:1)通过源码构建npu版vllm镜像,详细说明了vllm-ascend的安装步骤、模型测试方法及服务启动命令;2)使用官方预构建的vllm-ascend镜像,提供完整的容器启动脚本和API测试示例。文章包含LLM和Embedding模型的完整部署方案,涉及Dockerfile编写、启动脚本配置、一键部署脚本以及Python API调用代码

#人工智能#华为#语言模型 +2
【人工智能】qwen2.5-7b 部署推理

5.修改启动文件中的一些配置,然后运行官方的web_demo.py就可以访问了。2.可以克隆一下github官方demo。4.装完pytorch后可以验证一下。我直接附上一个依赖文件可以直接下载。环境Ubuntu20.04。1. 从魔搭下载模型权重。

#python#conda#pytorch +1
【人工智能】华为昇腾NPU-Vllm Ascend部署及镜像制作

本文介绍了两种在华为昇腾NPU上部署vLLM推理服务的方法:1)通过源码构建npu版vllm镜像,详细说明了vllm-ascend的安装步骤、模型测试方法及服务启动命令;2)使用官方预构建的vllm-ascend镜像,提供完整的容器启动脚本和API测试示例。文章包含LLM和Embedding模型的完整部署方案,涉及Dockerfile编写、启动脚本配置、一键部署脚本以及Python API调用代码

#人工智能#华为#语言模型 +2
python向kafka发送数据,并接收

发送端import csvimport timefrom kafka import KafkaProducerfrom kafka import KafkaConsumerimport json# 实例化一个KafkaProducer示例,用于向Kafka投递消息producer = KafkaProducer(value_serializer=lambda v: json.dumps(v).en

linux使用nohup 进行后台运行python文件

首先我们要查询一下我们需要的环境的位置whereis python3找到我们的环境然后复制地址nohup /root/.virtualenvs/py3_data365/bin/python3 s_09_b.py &

python向kafka发送数据,并接收

发送端import csvimport timefrom kafka import KafkaProducerfrom kafka import KafkaConsumerimport json# 实例化一个KafkaProducer示例,用于向Kafka投递消息producer = KafkaProducer(value_serializer=lambda v: json.dumps(v).en

    共 13 条
  • 1
  • 2
  • 请选择