logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

2026 AI企业应用入门必看:Qwen2.5开源模型部署实战

本文介绍了如何在星图GPU平台上自动化部署通义千问2.5-7B-Instruct大型语言模型 二次开发构建by113小贝镜像,快速实现企业级AI客服场景——如自动解析用户订单查询意图并调用后端API返回物流状态,显著提升响应准确率与业务集成效率。

Cosmos-Reason1-7B生产环境:冷链仓储视频中温控设备异常联动推理

本文介绍了如何在星图GPU平台上自动化部署Cosmos-Reason1-7B 7B参数量多模态物理推理视觉语言模型(VLM),实现冷链仓储视频中温控设备异常的智能检测与联动控制。该模型能够实时分析监控视频,识别设备异常状态并触发相应控制逻辑,确保冷链环境温度稳定,显著提升仓储管理效率与安全性。

开源可复现|【书生·浦语】internlm2-chat-1.8b训练数据构成与清洗方法公开

本文介绍了【书生·浦语】InternLM2-Chat-1.8b模型的训练数据构成与精细清洗方法。该模型可在星图GPU平台上实现自动化部署,其核心应用场景是进行流畅、安全的智能对话与指令遵循,适用于聊天机器人、智能助手等轻量级AI交互任务。

vLLM加速ERNIE-4.5-0.3B部署:性能提升50%实测

本文介绍了如何在星图GPU平台上自动化部署【vllm】ERNIE-4.5-0.3B-PT镜像,以加速轻量级中文大语言模型的推理。通过该平台,用户可以快速搭建高性能的AI服务,并将其应用于智能问答、文本创作等实际场景,显著提升内容生成效率。

Qwen-Image-2512部署教程:Kubernetes Helm Chart封装与弹性扩缩容

本文介绍了如何在星图GPU平台上自动化部署Qwen-Image-2512极速文生图创作室镜像,快速构建AI绘画服务。该方案通过Kubernetes Helm Chart封装,实现了服务的弹性扩缩容,能够高效应对创意营销、社交媒体配图等场景下海量视觉素材的快速生成需求。

Ollama环境下internlm2-chat-1.8b GPU算力优化:显存占用降低40%的参数配置

本文介绍了在星图GPU平台上自动化部署【书生·浦语】internlm2-chat-1.8b镜像的优化实践。通过调整量化参数与上下文长度,可将模型显存占用降低约40%,使其能够在资源受限的环境中流畅运行,适用于智能对话、代码辅助等日常AI应用场景。

为什么RXT4090显卡能成为装机热选?

RTX 4090凭借Ada架构、DLSS 3和强大算力,在游戏、创作与AI场景中实现性能突破,成为高端装机首选。

无需繁琐配置!PyTorch-CUDA-v2.8镜像一键开启GPU算力之旅

通过PyTorch-CUDA-v2.8容器化镜像,开发者可快速部署支持GPU加速的深度学习环境,避免驱动、CUDA、cuDNN等依赖冲突问题。结合Docker与NVIDIA工具链,实现跨平台一致性的开发体验,支持Jupyter交互探索与SSH远程训练,显著提升研发效率。

春联生成模型-中文-base开源部署:支持国产昇腾/寒武纪芯片的适配可能性分析

本文介绍了如何在星图GPU平台上自动化部署春联生成模型-中文-base镜像,快速搭建AI春联创作环境。该平台简化了部署流程,用户输入关键词即可自动生成文采斐然、对仗工整的春联,为春节文化内容创作提供了便捷的AI工具。

亚洲美女-造相Z-Turbo可部署方案:适配信创环境(麒麟OS+昇腾910B)可行性验证

本文介绍了如何在星图GPU平台上自动化部署“亚洲美女-造相Z-Turbo”镜像,并验证其在国产信创环境(麒麟OS+昇腾910B)中的可行性。该方案通过Xinference框架实现模型推理,并构建Gradio交互界面,展示了该镜像在生成符合亚洲审美风格的人物图片这一典型应用场景中的实际效果。

    共 169 条
  • 1
  • 2
  • 3
  • 17
  • 请选择