logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

RTOS环境下I2C HID驱动移植新手教程

手把手教你如何在RTOS环境下完成I2C HID驱动的移植,涵盖设备初始化、通信协议对接等关键步骤,帮助新手快速掌握i2c hid在实时系统中的应用与调试技巧。

OpenClaw文献研究助手:GLM-4.7-Flash自动整理学术资料

本文介绍了如何在星图GPU平台上自动化部署【ollama】GLM-4.7-Flash镜像,构建OpenClaw文献研究助手。该解决方案能自动整理学术资料,包括PDF文本提取、结构化摘要生成和多文献观点对比,显著提升研究效率,特别适合需要处理大量中英文论文的学者和科研工作者。

#AI助手
ClawdBot高性能部署:vLLM动态批处理应对Telegram突发消息洪峰

本文介绍了如何在星图GPU平台上自动化部署ClawdBot镜像,以构建高性能的Telegram AI助手。该方案利用vLLM的动态批处理技术,有效应对群聊中的突发消息洪峰,确保在多用户同时请求翻译或信息处理时,依然能保持低延迟与高吞吐量。

#AI助手
STM32H5缓存配置与内存优化实战:ICACHE/DCACHE、重映射与DMA协同

缓存(Cache)是嵌入式系统提升CPU访存效率的核心机制,其本质是通过局部性原理在处理器与主存之间构建高速缓冲层。理解缓存工作原理——包括写回/直写策略、组相联映射、缓存行对齐及一致性协议——是释放高性能MCU算力的前提。在STM32H5等Cortex-M33平台中,ICACHE与DCACHE并非独立开关,而是需与外部存储器映射(如Octo-SPI重映射)、DMA数据流、TrustZone安全域

开源大模型部署新选择:nlp_gte_sentence-embedding_chinese-large + RTX 4090 D GPU算力实测

本文介绍了如何在星图GPU平台上自动化部署nlp_gte_sentence-embedding_chinese-large镜像,高效实现中文语义向量化。该镜像专为中文优化,可直接用于电商客服知识库的语义检索场景,精准匹配用户问题与FAQ答案,显著提升RAG系统准确率与响应效率。

Nanbeige4.1-3B性能提效实录:vLLM吞吐提升2.3倍的GPU算力适配方案

本文介绍了如何在星图GPU平台上自动化部署Nanbeige4.1-3B镜像,并利用vLLM框架优化其文本生成服务的性能。通过该方案,用户可显著提升模型推理吞吐量,适用于构建高性能的智能对话、内容创作等AI应用场景。

#性能优化
bge-large-zh-v1.5开源部署指南:低成本GPU算力下高效运行中文Embedding模型

本文介绍了如何在星图GPU平台上自动化部署bge-large-zh-v1.5镜像,高效运行中文Embedding模型。依托平台能力,用户可快速启用该模型,实现语义搜索、RAG知识库构建等典型应用,显著降低中文文本向量化与相似度计算的技术门槛。

#RAG
图片旋转判断GPU算力适配:4090D单卡显存优化与推理加速方案

本文介绍了如何在星图GPU平台上自动化部署‘图片旋转判断’镜像,实现图像朝向智能识别与自动校正。该镜像专为RTX 4090D等消费级GPU优化,支持低显存(<2.1GB)、高精度(±0.8°)推理,典型应用于银行票据OCR预处理、电商商品图批量清洗等图像方向统一场景。

智谱AutoGLM实战案例:自动打开抖音关注博主完整流程

本文介绍了如何在星图GPU平台上自动化部署智谱开源的手机端AI Agent框架——Open-AutoGLM,并演示了其核心应用场景。通过该框架,用户仅需下达“打开抖音搜索并关注指定博主”等自然语言指令,即可实现手机应用的自动化操作,极大简化了重复性任务流程。

Clawdbot整合Qwen3-32B保姆级教程:日志分级输出与错误追踪定位方法

本文介绍了如何在星图GPU平台上一键自动化部署Clawdbot整合Qwen3:32B代理直连Web网关配置Chat平台镜像,实现智能对话系统的快速搭建。该方案重点展示了日志分级管理与错误追踪定位方法,确保AI对话平台稳定运行,适用于智能客服、内容生成等典型应用场景。

    共 107 条
  • 1
  • 2
  • 3
  • 11
  • 请选择