logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

chandra算力优化实践:单页1秒完成复杂文档识别

本文介绍了如何在星图GPU平台上自动化部署chandra镜像,实现高精度、布局感知的复杂文档识别。该镜像支持单页约1秒内完成扫描件到结构化Markdown的转换,典型应用于合同审查、学术论文解析及医疗表单处理等需语义理解的场景,显著提升RAG知识库构建与自动化归档效率。

HG-ha/MTools算力优化:CUDA_FULL版本编译提速秘籍

本文介绍了如何在星图GPU平台上自动化部署HG-ha/MTools 开箱即用镜像,实现AI图像高清修复、视频去抖与文生图等高性能本地化处理。该镜像预集成CUDA_FULL优化版本,显著提升GPU算子利用率,让4K人像修复、批量视频增强等任务响应更流畅、耗时减半。

PETRV2-BEV在星图AI平台的GPU算力优化训练:batch_size/显存/学习率调优详解

本文介绍了如何在星图GPU平台上自动化部署训练PETRV2-BEV模型的镜像,并详解了针对该自动驾驶感知模型的GPU算力优化训练方法。通过调整batch_size、显存占用和学习率等核心参数,用户可以在平台上高效训练模型,以提升其在复杂交通场景中对车辆、行人等目标的3D检测与感知能力。

#自动驾驶#深度学习
Qwen2.5-0.5B极速对话机器人:响应速度提升秘籍

本文介绍了基于星图GPU平台自动化部署🤖 Qwen/Qwen2.5-0.5B-Instruct 极速对话机器人镜像的完整方案。该平台支持一键拉取镜像并快速构建AI服务,适用于模型微调、轻量级AI应用开发等场景,尤其适合在低算力环境下实现高效、低延迟的流式对话功能,助力开发者快速落地边缘计算与私有化部署需求。

Qwen3-VL-8B技术分享:多模态表示学习方法

本文介绍了基于星图GPU平台自动化部署Qwen3-VL-8B-Instruct-GGUF镜像的完整实践,该模型支持在低算力设备上高效运行多模态任务。通过星图GPU可一键启动本地化服务,实现图像描述生成、视觉问答等AI应用,适用于私有化部署与边缘计算场景,显著降低大模型使用门槛。

Clawdbot部署Qwen3:32B的绿色计算实践:GPU功耗监控与能效比优化

本文介绍了如何在星图GPU平台上自动化部署Clawdbot 整合 Qwen3:32B 代理直连 Web 网关配置Chat平台镜像,实现低功耗、高能效的大语言模型对话服务。通过GPU功耗监控与运行时优化,该镜像可稳定支撑多并发AI聊天应用,适用于企业私有化智能客服、技术文档问答等典型场景。

Open-AutoGLM系统清理助手:缓存清除执行代理部署

本文介绍了如何在星图GPU平台上自动化部署Open-AutoGLM – 智谱开源的手机端AI Agent框架镜像,实现移动端AI助理的缓存自动清理功能。通过该镜像,用户可快速构建具备屏幕感知、意图解析与ADB精准执行能力的Phone Agent,典型应用于手机UI自动化操作中的临时文件安全清除,显著提升长期运行稳定性与响应效率。

一键部署Coze-Loop开发环境:VSCode配置指南

本文介绍了如何在星图GPU平台上自动化部署🔄 coze-loop - AI 代码循环优化器镜像,快速搭建AI Agent开发环境。通过该平台,开发者可免去复杂的本地配置,一键启动包含前后端服务的完整开发栈,并利用VSCode远程连接进行高效的代码编写、调试与测试,显著提升AI应用开发效率。

Open-AutoGLM中文输入乱码问题解决方法汇总

本文介绍了如何在星图GPU平台上自动化部署Open-AutoGLM – 智谱开源的手机端AI Agent框架镜像,解决中文输入乱码问题并实现稳定运行。通过平台一键部署后,该框架可直接用于手机端自动化任务,如微信搜索‘AI自动化’并发送等典型场景,显著提升移动端AI Agent落地效率。

用Open-AutoGLM做了个自动关注抖音号的小工具

本文介绍了基于“星图GPU”平台自动化部署Open-AutoGLM——智谱开源的手机端AI Agent框架,实现自然语言驱动的移动端智能操作。该镜像可快速构建如“自动关注抖音号”等典型应用,通过多模态感知与ADB操控,完成从指令理解、界面识别到真实点击的全流程自动化,显著降低AI应用开发门槛。

    共 110 条
  • 1
  • 2
  • 3
  • 11
  • 请选择