logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

RAG系统核心升级:用Qwen3-Embedding-4B解决长文本语义检索难题

本文介绍了如何在星图GPU平台上自动化部署通义千问3-Embedding-4B-向量化模型,以解决RAG系统中的长文本语义检索难题。该模型支持32k超长上下文窗口,可直接处理完整文档如技术论文或法律合同,无需分块处理,显著提升检索精度和效率。通过简单的Docker命令即可快速搭建语义检索系统,适用于知识库构建、跨语言检索等场景。

Qwen3-4B-Thinking-2507-Gemini-Distill入门必看:强制<think>标签触发机制详解

本文介绍了如何在星图GPU平台上自动化部署Qwen3-4B-Thinking-2507-Gemini-Distill 推理模型v1.0镜像,实现AI推理过程可视化功能。该模型通过强制触发<think>标签机制,确保详细展示推理步骤,特别适用于教学演示、逻辑验证等场景,提升AI模型的可解释性和应用价值。

通义千问1.8B-Chat-GPTQ模型体验:轻量级AI助手部署全记录

本文介绍了如何在星图GPU平台上自动化部署通义千问1.5-1.8B-Chat-GPTQ-Int4镜像,快速搭建轻量级AI助手。该量化模型在保持良好对话能力的同时显著降低硬件需求,适用于技术问答、代码生成等日常场景,特别适合消费级显卡用户快速体验AI对话应用。

#AI助手
Qwen1.5-1.8B GPTQ与Dify集成:快速构建无代码AI智能体应用

本文介绍了如何在星图GPU平台上自动化部署🤖 Qwen1.5-1.8B GPTQ镜像,并将其与Dify无代码平台集成,快速构建AI智能体应用。通过该组合,用户无需编码即可创建具备智能问答、文本总结等功能的AI助手,适用于快速原型验证和内部工具开发。

#AI智能体
结合CoPaw与强化学习:开发个性化游戏AI智能体

本文介绍了如何在星图GPU平台上自动化部署CoPaw镜像,结合强化学习技术开发个性化游戏AI智能体。该方案通过CoPaw的高层策略规划与强化学习的动态决策优化,可应用于RPG游戏NPC行为设计等场景,显著提升游戏角色的智能水平和玩家体验。

开源资源发现引擎:为智能体构建高召回率公共资源搜索能力

在自动化工作流和智能体开发中,资源发现是一个关键技术挑战。其核心原理是通过分层架构和意图解析,将模糊的自然语言查询转化为结构化的搜索策略,从而提高召回率。这项技术的价值在于为程序赋予类似人类的资源发现与评估能力,实现从海量公开信息中高效筛选高质量链接。在应用场景上,它广泛服务于电影、剧集、音乐、软件等多媒体资源的自动化获取,以及智能体工作流中的信息检索环节。本文聚焦的 resource-hunte

为 Ubuntu 上的 OpenClaw Agent 工作流配置 Taotoken 作为模型供应商

在开始配置之前,请确保您的 Ubuntu 系统已安装 Node.js 16 或更高版本。这是运行 OpenClaw 和 Taotoken CLI 工具的基础环境。node -v。

寻音捉影·侠客行高算力优化:FunASR模型量化压缩,内存占用降低65%

本文介绍了如何在星图GPU平台上自动化部署🗡️ 寻音捉影 · 侠客行 (Shadow & Sound Hunter)镜像,实现高效的语音识别与关键词检索功能。通过FunASR模型量化压缩技术,该镜像在会议纪要、视频素材处理等场景中显著降低内存占用,提升处理效率。

#语音识别
StructBERT情感分类模型边缘计算部署方案

本文介绍了如何在星图GPU平台上自动化部署StructBERT情感分类-中文-通用-base镜像,实现高效的中文情感分析。该方案特别适用于智能客服场景,能够实时处理用户评论并判断情感倾向,提升响应速度与数据隐私保护。

#边缘计算
OpenClaw性能优化:Qwen3-14b_int4_awq模型资源占用分析

本文介绍了如何在星图GPU平台上自动化部署Qwen3-14b_int4_awq镜像,实现高效的大语言模型推理。该镜像通过int4量化和AWQ优化技术显著降低资源消耗,适用于文本生成、信息提取等自然语言处理任务,帮助开发者在个人设备上流畅运行14B参数的大模型。

#性能优化
    共 312 条
  • 1
  • 2
  • 3
  • 32
  • 请选择