logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

保姆级教程:Qwen3-TTS方言语音合成快速入门

本文介绍了如何在星图GPU平台上自动化部署Qwen3-TTS-12Hz-1.7B-CustomVoice镜像,实现高效的方言语音合成。该镜像支持粤语、四川话等多种方言的语音生成,可广泛应用于方言教学、有声内容制作和地方特色语音服务等场景,大幅降低语音合成的技术门槛。

FunASR语音识别API文档:接口调用参数详解

本文介绍了基于“星图GPU”平台自动化部署FunASR 语音识别基于speech_ngram_lm_zh-cn 二次开发构建by科哥镜像的方法,支持快速搭建中文语音识别系统。该镜像可广泛应用于会议转录、字幕生成等场景,结合API参数调优实现高精度语音转文字,助力AI应用开发高效落地。

Tensorflow深度学习项目:验证码识别实战

文件中定义了多个关键函数和类,以实现上述功能::执行图像二值化处理。:进行边缘检测。:将检测到的数字字符进行分割。每个函数和类都有详尽的注释,以确保代码的可读性和可维护性。

Qwen2.5-72B-GPTQ-Int4快速部署:vLLM显存优化+多语言支持一站式落地

本文介绍了如何在星图GPU平台上自动化部署Qwen2.5-72B-Instruct-GPTQ-Int4镜像,实现大语言模型的快速落地。该方案结合vLLM显存优化技术,显著降低了720亿参数模型的部署门槛,并支持构建多语言AI对话应用,适用于智能客服、内容创作等场景。

vLLM推理服务如何实现细粒度权限控制?RBAC模型应用

本文介绍如何在vLLM推理服务中应用RBAC模型,实现模型级、参数级和频率级的细粒度权限控制。通过角色与权限解耦,结合API网关、认证层与缓存机制,在不影响高性能推理的前提下保障系统安全,支持企业级AI平台的合规与资源管理需求。

Qwen2.5-72B-Instruct-GPTQ-Int4部署教程:vLLM模型卸载+热更新机制配置说明

本文介绍了如何在星图GPU平台上自动化部署Qwen2.5-72B-Instruct-GPTQ-Int4镜像,实现高效的大语言模型推理服务。该镜像支持128K tokens长文本处理和多语言交互,特别适用于智能客服、多轮对话等场景,通过vLLM框架优化资源利用,显著提升响应速度和服务稳定性。

Qwen3-14B量化模型教程:int4 AWQ压缩原理与vLLM推理加速机制详解

本文介绍了如何在星图GPU平台上自动化部署Qwen3-14b_int4_awq量化模型,该模型采用AWQ压缩技术显著降低显存需求并提升推理速度。通过vLLM框架的优化,该镜像特别适用于构建高效的长文本摘要生成系统,为内容创作者提供快速、低成本的AI辅助工具。

零基础玩转医疗AI:手把手教你用vllm部署Baichuan-M2-32B-GPTQ-Int4

本文介绍了如何在星图GPU平台上自动化部署【vllm】Baichuan-M2-32B-GPTQ-Int4镜像,快速构建医疗AI推理服务。用户无需配置环境或编译代码,即可在单卡RTX4090上运行该模型,典型应用于基层辅助问诊、症状鉴别诊断与用药安全核查等临床场景,显著提升医疗决策效率。

5分钟部署DeepSeek-R1-Distill-Qwen-1.5B,vLLM让AI对话快速上线

本文介绍了基于星图GPU平台,如何自动化部署DeepSeek-R1-Distill-Qwen-1.5B镜像,结合vLLM框架实现高效推理。该方案支持快速搭建本地AI对话服务,适用于模型微调、智能客服与内容生成等场景,显著降低大模型应用门槛,提升部署效率。

Qwen2.5-7B+vLLM离线推理实战:解决V100显卡兼容性问题

本文介绍了如何在星图GPU平台上自动化部署Qwen2.5-7B镜像,以解决其在V100等旧款显卡上的兼容性问题。通过指定使用float16精度,用户可在该平台上轻松部署该大语言模型,并应用于智能对话、代码生成与解释等离线推理场景,有效利用现有硬件资源。

    共 181 条
  • 1
  • 2
  • 3
  • 19
  • 请选择