logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

每天15分钟 15 天带你学会 AI 智能体开发(四):RAG 进阶——从 chunk 策略到检索优化

上一篇我们跑通了一个最小 RAG:文档入库 → 向量搜索 → 喂给模型 → 得到回答。能用了,但离"好用"还差得远。

#人工智能#数据库#知识图谱 +1
每天15分钟 15 天带你学会 AI 智能体开发(三):RAG 让你的 bot 知道它“本来不知道的事“

上一篇我们给 bot 装了 Memory,它终于能记住"刚聊过什么"。但还有一类问题它照样答不上来:你公司的事、你电脑里的文档、你脑子里的业务知识——它全不知道。

#人工智能#机器学习#深度学习 +1
一文搞懂大模型的部署(Ollama和vLLM),大模型入门到精通,收藏这篇就足够了!

Ollama是一款专注于简化大型语言模型本地部署和运行的开源框架,基于Go语言实现,支持跨平台运行,并以“开箱即用”为核心理念,适合个人开发者和轻量化场景。

文章图片
#开源#人工智能#自然语言处理
从零部署Qwen大模型:vLLM实战指南,零基础小白收藏这一篇就够了!

本文将手把手教你使用高性能推理引擎vLLM部署Qwen大模型,并提供Python和Java两种语言的实现代码,帮助不同技术背景的开发者快速上手。

文章图片
#人工智能
LLaMA Factory微调后的大模型在vLLM框架中对齐对话模版

LLaMA Factory微调后的大模型Chat对话效果,与该模型使用vLLM推理架构中的对话效果,可能会出现不一致的情况。

文章图片
#知识图谱
本地部署vLLM+Qwen3:高性能大模型推理引擎,比Ollama强在哪?

今天我们就来深入解析两款主流的大模型推理引擎——vLLM和Ollama,帮助您做出正确的技术选型。

#人工智能#开源#自然语言处理
为什么从 Ollama 走向 vLLM 是大模型部署的必然之路,大模型入门到精通,收藏这篇就足够了!

如果你一直在用Ollama进行本地LLM实验,现在想转向vLLM以获得生产级性能,这篇文章的主要目的是讲解这两个框架的区别,探讨选择正确框架的重要性,并提供一步步的指导。

#人工智能#自然语言处理#MCP
LangChain + MCP + vLLM + Qwen3-32B 构建本地私有化智能体应用,大模型入门到精通,收藏这篇就足够了!

在本专栏的前面文章基于Spring AI MCP实现了本地 ChatBI 问答应用,本文还是依据该场景,采用 LangChain + vLLM + Qwen3-32B + MCP 技术栈构建该流程

#大数据#数据库#人工智能 +1
MindSpeed LLM适配Qwen3新模型并上线魔乐社区,快速部署与推理教程来啦!

MindSpeed LLM作为昇腾AI生态的重要技术支撑,专为大规模语言模型设计,具有超强的计算能力和灵活的开发支持。

#人工智能#windows
大模型微调工具:LLaMA-Factory、Unsloth 、MS-Swift和MindSpeed -LLM横向对比,大模型入门到精通,收藏这篇就足够了!

模型微调通常来说,虽然可以提高任务的效果,但通常来说,微调的成本远大于提示词调优,模型微调相对来说复杂性高、资源需求大而且成本高。

文章图片
#人工智能#机器学习#RAG
    共 1958 条
  • 1
  • 2
  • 3
  • 196
  • 请选择