logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

OpenClaw+千问3.5-9B会议助手:语音转写与要点提取

本文介绍了如何在星图GPU平台上自动化部署千问3.5-9B镜像,构建智能会议助手实现语音转写与要点提取。该方案通过AI自动处理会议录音,快速生成结构化会议纪要,显著提升跨时区远程会议的记录效率,特别适用于需要实时转写和关键信息提取的商务场景。

#语音转写
通义千问3-Reranker-0.6B模型量化部署实战

本文介绍了如何在星图GPU平台上自动化部署通义千问3-Reranker-0.6B镜像,实现高效的文本相关性排序。该量化模型可大幅降低内存占用,适用于智能搜索、文档重排等场景,帮助用户快速筛选海量文本并提升信息检索效率。

手把手教你用Ollama离线部署通义千问2.5-0.5B模型

本文介绍了基于星图GPU平台自动化部署通义千问2.5-0.5B-Instruct镜像的完整流程。该轻量级模型支持离线运行,适用于边缘设备上的AI应用开发,如本地化对话系统、代码生成与多语言文本处理,助力开发者高效构建私有化AI服务。

UI-TARS-desktop真实案例:Qwen3-4B-Instruct在UI-TARS-desktop中成功操作Chrome完成电商比价任务

本文介绍了如何在星图GPU平台上自动化部署UI-TARS-desktop镜像,实现AI智能体操控浏览器完成自动化任务。该镜像集成了Qwen3-4B-Instruct模型,能够理解指令并自动操作Chrome浏览器,典型应用场景包括电商比价、数据采集等自动化工作流,显著提升信息处理效率。

#AI智能体
开源模型新标杆:Qwen2.5-7B支持8K生成企业应用指南

需求:每月数百份 PDF 报告需人工提取关键指标。实现方式1. 使用 PyPDF2 或 pdfplumber 提取文本;2. 切分至 128K 内容块;"main_risk": "原材料价格上涨"存入数据库供 BI 工具分析。✅收益:人力成本下降 70%,响应时间从天级缩短至分钟级。Qwen2.5-7B 不仅是一个参数规模适中的开源语言模型,更是面向企业级应用打造的高性能、低成本、易部署的综合解决

Qwen3-0.6B-FP8思考模式详解:可视化CoT推理的入门必看教程

本文介绍了如何在星图GPU平台上自动化部署Qwen3-0.6B-FP8(内置模型版)v1.0镜像,并详解其核心的“思考模式”(CoT推理)。该模式能将模型的推理过程可视化,特别适用于数学解题、逻辑分析等需要展示思维链条的轻量级AI对话与教学演示场景。

Qwen All-in-One灰盒测试:内部状态观测实践

本文介绍了如何在星图GPU平台上自动化部署🧠 Qwen All-in-One: 单模型多任务智能引擎镜像,实现基于单一大语言模型的情感分析与共情对话双重功能。该镜像可在CPU环境高效运行,典型应用于实时情绪识别与个性化AI陪伴场景,显著降低多模型部署复杂度。

SAM3进阶:模型蒸馏实现轻量化部署

本文介绍了基于星图GPU平台自动化部署sam3 提示词引导万物分割模型的实践方法。通过知识蒸馏技术实现模型轻量化,显著降低显存占用与推理时延,适用于边缘设备上的AI应用开发与实时图像分割任务,提升部署效率与运行性能。

春联生成模型-中文-base构建智能Agent:自主完成春联定制任务

本文介绍了如何利用星图GPU平台,自动化部署春联生成模型-中文-base镜像,并构建智能Agent实现个性化春联定制。该方案将单向的模型调用升级为多轮对话交互,能主动引导用户澄清需求、生成方案并迭代优化,让AI成为用户身边的春联创作伙伴,显著提升定制体验与创作效率。

电力负荷预测新选择:IBM Granite FlowState R1时间序列模型实测体验

本文介绍了如何在星图GPU平台上自动化部署Granite TimeSeries FlowState R1 - 时间序列预测模型v1.0镜像,并体验其核心功能。该模型专为快速、轻量化的时间序列预测设计,用户无需训练即可实现零样本推理,典型应用场景包括对电力负荷等具有周期性规律的数据进行未来24小时的趋势预测,适合快速原型验证与教学演示。

    共 290 条
  • 1
  • 2
  • 3
  • 29
  • 请选择