logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

千问3.5-9B Android Studio移动端AI应用开发入门

本文介绍了如何在星图GPU平台上自动化部署千问3.5-9B镜像,快速开发Android Studio移动端AI应用。该平台简化了部署流程,使开发者能轻松集成千问3.5-9B模型,实现智能聊天功能等移动端AI场景,提升开发效率。

RTX3060也能跑!通义千问2.5-7B量化版部署指南

本文介绍了基于星图GPU平台自动化部署通义千问2.5-7B-Instruct镜像的完整方案,支持在RTX3060等消费级显卡上高效运行。通过量化技术,模型仅需4GB显存即可实现百字每秒的推理速度,适用于本地AI助手、模型微调与轻量级AI应用开发,兼顾性能与成本。

Swift-All降本实践:使用T4部署百亿参数模型

本文介绍了如何在星图GPU平台上自动化部署Swift-All(一锤定音)镜像,实现低成本运行百亿参数大模型。该方案利用T4显卡和量化技术,通过一站式脚本简化了模型下载、推理和轻量微调流程,适用于快速验证模型效果、原型开发及个人学习等场景。

Gemma-3-12b-it部署指南:解决Ollama模型加载慢、GPU未识别、OOM等典型问题

本文介绍了如何在星图GPU平台自动化部署Gemma-3-12b-it镜像,解决模型加载慢、GPU未识别和内存不足等典型问题。该镜像具备强大的多模态能力,可应用于文本生成、图像理解和长文档处理等场景,显著提升AI内容创作效率。

Qwen3-ASR-0.6B多模态应用:视频自动配音

本文介绍了如何在星图GPU平台自动化部署Qwen3-ASR-0.6B镜像,实现视频自动配音功能。该系统能自动识别视频原音并生成多语言配音,适用于视频内容本地化、无障碍访问等场景,显著提升多语言视频制作效率。

#语音识别
5步搞定Qwen2.5-Coder-1.5B代码生成模型部署

本文介绍了如何在星图GPU平台上自动化部署Qwen2.5-Coder-1.5B代码生成模型,显著简化本地环境配置流程。基于该平台,用户可一键完成镜像拉取、模型加载与API服务启动,快速构建私有化代码助手,典型应用于函数编写、错误诊断与代码重构等开发任务。

#开发者工具
Llama-3.2-3B从零开始:Ollama部署+Docker Compose编排多模型服务

本文介绍了如何在星图GPU平台上自动化部署【ollama】Llama-3.2-3B镜像,快速搭建轻量级大语言模型服务。该平台简化了部署流程,用户可轻松启动该模型,并将其应用于智能对话、文本总结与内容创作等典型场景,显著提升开发与测试效率。

Qwen3-ASR-0.6B环境部署教程:Ubuntu/CentOS下CUDA 12.x + PyTorch 2.3一键配置

本文介绍了如何在星图GPU平台上一键自动化部署🎙️ Qwen3-ASR-0.6B智能语音识别镜像,实现高效的本地语音转文字处理。该镜像支持中英文混合识别,可广泛应用于会议录音转录、语音笔记整理等场景,保障数据隐私的同时提升工作效率。

#语音识别
i-vector技术及其在说话人识别中的应用实战

i-vector技术是现代语音处理领域的关键技术之一,尤其在说话人识别、自动语音识别和语音转换等任务中应用广泛。本章将带领读者了解i-vector技术的基本概念,它的起源以及如何演进成为现代语音识别技术的基石。i-vector(intonation vector)是一种声学特征提取方法,它能够从音频信号中捕捉说话人的声道特性以及语调等信息。i-vector技术的核心是将声道的瞬时特性转换为一个低维

[特殊字符] Meixiong Niannian画图引擎轻量部署:镜像体积<8GB+启动时间<15秒实测

本文介绍了如何在星图GPU平台上自动化部署🎨 Meixiong Niannian画图引擎镜像,实现快速AI绘画。该镜像体积小于8GB,启动时间短,用户可通过其集成的Web界面,轻松输入提示词进行高质量图片生成,为个人创作者和小团队提供了高效便捷的本地化AI绘画解决方案。

    共 386 条
  • 1
  • 2
  • 3
  • 39
  • 请选择