logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

从零开始玩转Pi0:具身智能镜像的快速部署与场景应用

本文介绍了如何在星图GPU平台上自动化部署Pi0 具身智能(内置模型版)v1镜像,实现自然语言到机器人动作序列的端到端生成。用户可通过浏览器交互界面,输入如“缓慢取出吐司”等指令,实时获得50步×14维标准关节运动数据,广泛应用于机器人教学演示、ROS接口验证与仿真原型开发。

TinyML工程落地:ESP32-C3嵌入式AI实战解析

TinyML(微型机器学习)是面向MCU等资源受限边缘设备的轻量化AI部署技术,核心在于将传统云端或GPU级推理任务压缩至KB级内存与MHz级算力约束下运行。其技术原理涵盖模型量化、整数运算替代浮点、确定性计算路径设计及硬件-软件协同优化。技术价值体现在超低功耗、毫秒级实时响应与离线自治能力,广泛应用于智能传感、工业预测性维护、可穿戴交互等场景。本文以ESP32-C3平台的手势识别系统为典型范例,

TinyML在ESP32-C3上的手势识别工程实践

TinyML(微型机器学习)是将传统机器学习模型压缩、量化并适配至微控制器(MCU)端侧推理的技术范式,核心在于突破内存、算力与功耗的硬约束。其原理依托固定点量化、轻量网络架构(如TCN)和裸机确定性执行,实现低延迟、低功耗的实时决策。技术价值体现在从手工特征工程转向端到端自动模式识别,显著提升嵌入式系统对时序传感器数据的理解能力。典型应用场景覆盖智能穿戴、工业预测性维护及人机交互等边缘智能领域。

Ollama部署translategemma-12b-it:开源模型+GPU算力优化,显存仅需16GB

本文介绍了如何在星图GPU平台上自动化部署【ollama】translategemma-12b-it镜像,实现高效的多语言翻译应用。该开源翻译模型支持55种语言互译和图片文字识别翻译,仅需16GB显存即可流畅运行,特别适用于文档翻译自动化和图片翻译工作流等实际场景。

#翻译模型
DeepSeek-OCR-2算力优化:BF16精度加载降低显存占用45%,支持8GB显卡

本文介绍了如何在星图GPU平台上自动化部署DeepSeek-OCR-2智能文档解析工具镜像。该平台简化了部署流程,用户可快速搭建本地文档解析环境。通过BF16精度优化,该工具显存占用降低45%,支持8GB显卡,典型应用场景包括将扫描的纸质合同、报告等复杂文档自动转换为结构化的Markdown格式,实现高效、安全的文档数字化。

发票开具需求调研:企业客户采购GPU算力的关注点分析

企业在采购GPU算力时,真正关心的是系统稳定性、批量处理效率与业务适配性。以HeyGem数字人视频生成为例,从音频对齐到唇形渲染,每一步都依赖GPU加速,但显存大小、I/O性能和任务调度策略同样关键。选型需平衡成本与产出,确保非技术人员也能高效使用。

OFA图像语义蕴含模型部署案例:NLP+CV多模态团队GPU算力统一调度实践

本文介绍了如何在星图GPU平台上自动化部署OFA 图像语义蕴含(英文-large)模型镜像,实现图文一致性智能审核。该平台简化了多模态模型的部署流程,用户可快速利用该镜像判断图片内容与文字描述的逻辑关系,典型应用于电商商品图文匹配检查、内容安全审核等场景。

Qwen3-VL:30B边缘协同方案:Clawdbot在星图云中心模型+飞书客户端轻量缓存

本文介绍了如何在星图GPU平台上自动化部署“星图平台快速搭建 Clawdbot:私有化本地 Qwen3-VL:30B 并接入飞书(上篇)”镜像,构建具备多模态理解能力的智能办公助手。该方案支持私有化部署Qwen3-VL大模型,并通过Clawdbot集成至飞书等办公平台,实现安全、高效的图像识别与智能对话应用,适用于企业内部的自动化客服、文档分析与协作场景。

OpenClaw浏览器自动化:ollama-QwQ-32B辅助网页信息抓取

本文介绍了如何在星图GPU平台上自动化部署【ollama】QwQ-32B镜像,实现高效的网页信息抓取。该方案结合OpenClaw浏览器自动化框架,能够智能解析动态网页内容,特别适用于电商竞品价格监控等场景,显著提升数据采集的稳定性和效率。

ClawdBot模型修改教程:自定义Qwen等大模型,打造专属助手

本文介绍了如何在星图GPU平台上自动化部署ClawdBot镜像,快速搭建个性化AI助手。该镜像支持自定义Qwen等大语言模型,通过简单配置即可实现本地化部署,适用于个人知识问答、内容创作等场景,为用户提供安全高效的AI辅助体验。

#AI助手
    共 159 条
  • 1
  • 2
  • 3
  • 16
  • 请选择