logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

DeepAnalyze算力适配:针对消费级RTX4090优化的Ollama推理配置,吞吐提升40%

本文介绍了如何在星图GPU平台上自动化部署DeepAnalyze - 深度文本分析引擎镜像,充分发挥消费级RTX4090算力,实现中文商业文本的实时结构化分析。该镜像专为私有化部署优化,适用于市场分析、法务合同审查、用户反馈聚类等高频文本解析场景,显著提升分析效率与数据安全性。

Linly-Talker支持异构计算,CPU+GPU协同推理

Linly-Talker通过CPU与GPU协同的异构架构,实现低延迟、高自然度的数字人交互。系统按任务特性动态分配算力,ASR等轻量任务由CPU处理,LLM、TTS和面部动画则交由GPU加速,并支持模块化配置与智能降级,兼顾性能与稳定性,适用于教育、电商、客服等多场景。

5分钟搞定:nanobot超轻量级AI助手部署全流程

本文介绍了如何在星图GPU平台上一键自动化部署🐈 nanobot超轻量级OpenClaw镜像,快速搭建个人AI助手。该镜像基于轻量化架构,支持自然语言指令执行系统命令,典型应用于技术调试与自动化任务处理,大幅提升开发与运维效率。

#AI助手
Qwen3-32B企业级应用:Clawdbot平台支持语音输入(Whisper集成)前瞻

本文介绍了如何在星图GPU平台上自动化部署Clawdbot 整合 Qwen3:32B 代理直连 Web 网关配置Chat平台镜像,构建企业级语音驱动AI对话系统。该镜像深度融合Whisper语音转写与Qwen3-32B大模型,支持离线、低延迟的语音问答,典型应用于制造业现场设备故障查询、工单快速处理等一线业务场景。

Nanobot+OpenClaw+TensorFlow:深度学习模型部署指南

本文介绍了如何在星图GPU平台上一键自动化部署🐈 nanobot:超轻量级OpenClaw镜像,实现深度学习模型的快速部署与应用。该方案简化了TensorFlow模型的集成流程,用户可通过简单配置快速搭建AI服务,适用于图片生成、智能对话等轻量级AI应用场景,大幅降低部署门槛。

手把手教你用Open-AutoGLM:一句话让AI自动刷抖音、点外卖

本文介绍了如何在星图GPU平台上自动化部署智谱开源的手机端AI Agent框架Open-AutoGLM。该平台简化了部署流程,用户可快速搭建环境,实现通过自然语言指令让AI自动操作手机,例如完成自动点外卖、刷抖音等日常任务,极大提升移动端自动化效率。

OWIN主机托管WebAPI2并使用独立DLL中Controller的示例演示

本文还有配套的精品资源,点击获取简介:本示例演示展示了如何在OWIN接口标准下自托管WebAPI2,并将控制器类置于独立的程序集中。通过将控制器类从主应用程序中分离,实现了更高的代码复用性和模块化。项目重点介绍了OWIN的启动和配置过程,以及如何在OWIN管道中注册和加载WebAPI2的控制器。同时,通过动态程序集加载确保了OWIN能够正确地找到并运行这些独立DLL中的控...

无需编程!Open-AutoGLM让你的手机秒变智能助理

本文介绍了如何在星图GPU平台上自动化部署Open-AutoGLM – 智谱开源的手机端AI Agent框架镜像,实现自然语言驱动的手机自动化操作。用户无需编程即可让手机自主完成跨App任务,如微信截图OCR识别并发送金额信息,显著提升日常数字生活效率。

OpenClaw智能食谱推荐:QwQ-32B根据冰箱食材生成烹饪方案

本文介绍了如何在星图GPU平台上自动化部署【ollama】QwQ-32B镜像,实现智能食谱推荐功能。该系统可根据冰箱食材自动生成个性化烹饪方案,包括菜品推荐、营养分析和购物清单,显著提升家庭饮食规划效率。通过本地化部署,既保障数据隐私,又能快速响应需求。

OpenClaw中文版落地:nanobot支持中文system prompt定制化Agent行为

本文介绍了如何在星图GPU平台自动化部署🐈 nanobot:超轻量级OpenClaw镜像,实现定制化AI助手功能。该镜像支持中文system prompt配置,可快速搭建个性化QQ聊天机器人,应用于智能问答、编程辅助等日常场景,提升工作效率。

#AI助手
    共 119 条
  • 1
  • 2
  • 3
  • 12
  • 请选择