logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

通义千问3-14B与DeepSeek-R1对比:14B级别谁更适合生产?

本文介绍了如何在星图GPU平台上自动化部署通义千问3-14B镜像,实现高性能大语言模型推理服务。依托平台能力,用户可快速启用双模式(Thinking/Non-thinking)推理,典型应用于多语言客服对话、长文档摘要与结构化工具调用等生产场景,兼顾响应速度与逻辑深度。

保姆级教程:用通义千问3-4B打造个人AI写作助手

本文介绍了基于星图GPU平台自动化部署通义千问3-4B-Instruct-2507镜像的完整流程,结合Ollama与LMStudio实现本地化AI写作助手。该方案支持长文本处理与高效推理,适用于文章提纲生成、内容润色及风格迁移等典型应用场景,兼顾性能与隐私安全。

anaconda能安装chatgpt吗

是的,可以使用 Anaconda 安装 chatgpt。你可以在 Anaconda 的命令行中输入 conda install chatgpt 来安装 chatgpt。不过,在安装之前,你需要确保你已经安装了 Anaconda 并且你的电脑已经连接到了互联网。...

#python#tensorflow#深度学习 +1
ClawdBot多场景落地:支持教育/电商/客服/科研四大垂直领域

本文介绍了如何在星图GPU平台上自动化部署ClawdBot镜像,构建本地化、隐私优先的AI工作台。该镜像支持教育场景中的智能备课与解题引导,可离线运行Qwen3-4B模型,实现毫秒级响应的教学素材生成与个性化答疑。

vLLM部署ERNIE-4.5-0.3B-PT的模型服务治理:版本灰度、AB测试、回滚机制

本文介绍了如何在星图GPU平台上自动化部署【vllm】ERNIE-4.5-0.3B-PT镜像,实现高效的文本生成服务治理。该方案支持版本灰度发布、AB测试和自动化回滚,确保模型更新过程安全可控,适用于智能客服、内容创作等文本生成场景,提升服务可靠性和用户体验。

Qwen3-4B-Thinking-GGUF一文详解:unsloth蒸馏+GPT-5-Codex指令对齐原理

本文介绍了如何在星图GPU平台上自动化部署Qwen3-4B-Thinking-2507-GPT-5-Codex-Distill-GGUF镜像。该模型通过unsloth蒸馏与GPT-5-Codex指令对齐技术,特别擅长代码生成与解释,开发者可快速将其部署为本地编码助手,用于生成函数、解释代码逻辑等实际开发任务。

Qwen3-ASR-0.6B企业部署实践:高并发API服务+GPU显存优化方案

本文介绍了如何在星图GPU平台上自动化部署Qwen3-ASR-0.6B轻量级高性能语音识别模型WeBUI镜像,快速搭建企业级语音转写服务。该方案支持高并发API调用,并针对GPU显存进行了优化,可高效应用于客服录音转写、在线教育视频字幕生成等场景,显著提升语音处理效率。

#语音识别
intv_ai_mk11部署避坑:解决CSDN GPU云中supervisor日志权限不足导致服务启动失败

本文介绍了如何在星图GPU平台上自动化部署intv_ai_mk11 AI对话机器人镜像,并解决supervisor日志权限不足导致的启动问题。该镜像基于Llama架构,可应用于智能客服、文案创作和技术问答等场景,提供高质量的AI对话服务。通过权限调整或自定义日志路径,确保服务稳定运行。

tao-8k Embedding模型镜像免配置实践:Xinference自动加载modelscope模型

本文介绍了如何在星图GPU平台上一键自动化部署tao-8k Embedding模型镜像,实现文本嵌入和语义相似度比对功能。该镜像预置了Xinference框架,支持长文本处理,可广泛应用于智能搜索、内容推荐和文档匹配等场景,提升文本分析与检索效率。

openclaw+Nunchaku FLUX.1-dev:面向开发者的文生图模型集成开发指南

本文介绍了如何在星图GPU平台上自动化部署Nunchaku FLUX.1-dev文生图镜像,快速搭建AI绘画开发环境。该平台简化了部署流程,开发者可基于此镜像,轻松实现高质量图片生成,广泛应用于创意设计、内容创作等场景,显著提升开发效率。

    共 357 条
  • 1
  • 2
  • 3
  • 36
  • 请选择