logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Qwen3-4B-Thinking-2507-Gemini-2.5-Flash-Distill快速原型开发:使用JDK1.8构建命令行交互工具

本文介绍了如何在星图GPU平台上自动化部署Qwen3-4B-Thinking-2507-Gemini-2.5-Flash-Distill镜像(基于通义千问Qwen3-4B官方模型),并利用JDK1.8快速构建命令行交互工具。该工具可实现与大语言模型的文本生成交互,适用于企业级AI应用原型开发,显著提升开发效率。

#命令行工具
在视频项目中使用Taotoken管理多模型API调用的成本与用量观察

现代视频项目往往需要混合使用多种大模型能力。从脚本大纲生成到分镜描述优化,再到社交媒体文案创作,不同环节对模型特性有差异化需求。我们的团队在制作系列科普视频时,同时调用了三种大模型:Claude Sonnet负责逻辑性强的解说词起草,GPT-4 Turbo处理创意性标题生成,Mixtral 8x7B用于多语言版本适配。这种混合使用模式带来了新的管理挑战。传统单模型接入方式需要维护多个API Key

Qwen3.5-4B模型智能体(Agent)框架实践:自主任务规划与执行

本文介绍了如何在星图GPU平台上自动化部署Qwen3.5-4B-Claude-4.6-Opus-Reasoning-Distilled-GGUF镜像,实现智能体(Agent)的自主任务规划与执行功能。该镜像能够自动分解复杂任务、调用工具并生成专业报告,特别适用于开源项目调研、技术方案对比等场景,显著提升信息处理效率。

基于Java与Langchain4j的多智能体银行助手:企业级AI应用实战

在当今企业数字化转型浪潮中,AI Agent(智能体)技术正成为连接自然语言交互与核心业务系统的关键桥梁。其核心原理在于,通过大语言模型(LLM)的理解与规划能力,将用户指令转化为可执行的操作序列。这项技术的核心价值在于,它能安全、可靠地将前沿的生成式AI能力融入现有稳健的微服务架构,而非构建孤立的AI玩具。典型的应用场景包括智能客服、自动化流程助手和内部知识系统等,尤其适用于金融、电商等对操作准

提示工程实战指南:从基础原理到AI智能体开发

大语言模型(LLM)作为基于海量数据训练的概率生成模型,其核心原理是通过预测序列中下一个词的概率来生成文本。理解这一原理是有效引导模型输出的基础。在工程实践中,通过结构化文本输入来引导和约束模型的内部计算过程,能显著提升其在复杂任务中的表现,这构成了提示工程的核心技术价值。该技术广泛应用于代码生成、智能问答、内容创作与数据分析等场景。其中,思维链提示通过要求模型展示推理步骤,能有效提升逻辑与数学问

为 OpenClaw Agent 工作流配置 Taotoken 作为模型供应商

🚀 告别海外账号与网络限制!稳定直连全球优质大模型,限时半价接入中。👉。

PyTorch-CUDA-v2.6镜像是否支持边缘计算部署?配合KubeEdge使用

结合PyTorch-CUDA-v2.6容器镜像与KubeEdge,实现AI模型在边缘设备的高效、一致、规模化GPU推理部署。通过容器化解决环境依赖问题,利用KubeEdge完成跨节点编排与离线自治,已在智慧工厂等场景验证,显著提升运维效率。

软萌拆拆屋部署优化:Nano-Banana LoRA模型量化压缩与推理加速方案

本文介绍了如何在星图GPU平台自动化部署🎀 Nano-Banana 软萌拆拆屋 🎀镜像,实现高效的AI图像生成。该镜像通过LoRA模型量化压缩与推理加速技术,大幅提升服饰拆解图像的生成速度,适用于电商商品展示、设计素材生成等场景,优化资源占用并提升用户体验。

#LoRA
基于STM32的嵌入式语义处理:BGE-Large-Zh边缘计算部署

本文介绍了如何在星图GPU平台上自动化部署BGE-Large-Zh语义向量化工具,实现高效的嵌入式语义处理。该方案通过模型量化与优化技术,使BGE-Large-Zh模型能在资源受限的边缘设备(如STM32)上运行,典型应用于智能家居的本地语音指令识别,提供低延迟、高隐私保护的离线语义理解能力。

#边缘计算
PyTorch-CUDA基础环境可用于强化学习训练

本文介绍如何通过PyTorch与CUDA、cuDNN结合的Docker镜像构建高效的强化学习训练环境,解决依赖冲突、显存优化和多卡训练等问题,提升团队协作效率与实验可复现性。

#cuDNN
    共 338 条
  • 1
  • 2
  • 3
  • 34
  • 请选择