logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

人体部位识别准确率提升秘诀:M2FP采用Mask2Former-Parsing架构

M2FP 成功的关键在于精准的任务定制化设计与扎实的工程落地能力算法层面:继承 Mask2Former 强大建模能力,针对性优化人体解析特有的结构先验;性能层面:在保持高精度的同时,支持 CPU 推理,拓宽了应用场景;体验层面:内置可视化拼图与 WebUI,极大降低了使用门槛。💡 一句话总结M2FP 不只是一个模型,而是一套“即插即用”的多人人体解析解决方案——从算法到界面,从精度到稳定性,全面

Gemma-3-12B-IT部署实战:Kubernetes集群中WebUI服务编排方案

本文介绍了如何在星图GPU平台上自动化部署gemma-3-12b-it高性能开源大语言模型(LLM)WebUI镜像,并基于Kubernetes集群构建可扩展的服务编排方案。通过该方案,用户可以快速搭建一个功能强大的AI对话界面,典型应用场景包括智能客服、代码辅助生成和内容创作等,显著提升开发与部署效率。

3D Face HRN部署教程:ARM架构Jetson Orin设备上的量化部署与功耗实测

本文介绍了如何在星图GPU平台上自动化部署3D Face HRN人脸重建模型,实现从单张照片生成精细3D面部模型的功能。该方案通过量化优化显著提升推理速度并降低功耗,可广泛应用于虚拟形象创建、影视特效制作等需要快速3D人脸重建的场景。

#边缘计算
Langchain-Chatchat + Kubernetes:大规模集群部署方案

通过将Langchain-Chatchat与Kubernetes结合,企业可构建高可用、可扩展的本地化智能问答系统。该方案实现服务解耦、GPU资源隔离与自动化运维,支持高并发下低延迟响应,兼顾数据安全与性能需求,适用于金融、医疗等敏感领域。

HY-MT1.5-1.8B响应延迟高?GPU算力优化部署解决方案

本文围绕HY-MT1.5-1.8B 响应延迟高的常见问题,系统性地剖析了其背后的技术成因,并提出了基于 GPU 算力特性的完整优化部署方案。延迟问题的本质往往不在模型本身,而在部署方式。模型量化:采用 INT4 压缩,降低显存占用,提升计算效率推理引擎升级:从 Transformers 迁移到 ONNX Runtime 或 TensorRT启用动态批处理:提高 GPU 利用率,实现吞吐量倍增运行时

Qwen2.5-72B-Instruct-GPTQ-Int4镜像部署:国产算力平台(昇腾/海光)适配展望

本文介绍了如何在星图GPU平台上自动化部署Qwen2.5-72B-Instruct-GPTQ-Int4镜像,实现高效的大语言模型推理。该72.7B参数的指令调优模型特别强化了编程和数学能力,支持128K上下文理解,适用于专业文本生成、结构化数据处理等场景。通过星图GPU平台的一键部署功能,用户可快速搭建AI服务环境。

星图AI算力平台:PETRV2-BEV模型训练保姆级教程

本文介绍了如何在星图GPU平台上自动化部署训练PETRV2-BEV模型的镜像,实现自动驾驶场景的三维视觉感知。该镜像能够快速处理多摄像头数据,精准识别车辆、行人等物体位置与运动状态,适用于智能驾驶系统的环境感知模块开发。

#自动驾驶
Youtu-Parsing镜像部署实操:适配国产昇腾/寒武纪平台的可行性验证

本文介绍了如何在星图GPU平台上自动化部署Youtu-Parsing多模态文档智能解析模型。该平台简化了部署流程,用户可快速搭建文档智能处理环境。该镜像能自动识别和解析扫描件、合同等文档中的文字、表格、公式等元素,并将其转换为结构化数据,极大地提升了文档数字化和信息提取的效率。

国产GPU适配进展:HunyuanOCR在昇腾系列上的移植尝试

腾讯混元OCR在华为昇腾平台的迁移实践,揭示了国产AI模型与算力协同落地的关键挑战与解决方案。从ONNX转换、算子适配到推理优化,全过程涵盖工具链选型、性能调优与安全加固,展现了轻量大模型在国产NPU上的高效运行潜力。

科研助手实战:OpenClaw+GLM-4.7-Flash自动整理文献与生成摘要

本文介绍了如何在星图GPU平台上自动化部署【ollama】GLM-4.7-Flash镜像,构建科研文献智能处理系统。该系统可实时监控指定文件夹,自动解析PDF论文并生成结构化摘要,显著提升科研工作者的文献管理效率。通过本地化部署确保数据安全,适用于学术研究、知识库构建等场景。

    共 165 条
  • 1
  • 2
  • 3
  • 17
  • 请选择