
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
这样我们把在知识图谱查到的上下问信息再拿到向量数据库做相似度匹配,我们就能够搜索到更多的有用信息,然后再把这些信息丢给大模型进行处理,我们就能够得到更准确的答案。

23年初,市场上出现了各种各样的“AI工具”,你能想象到的领域都有。但彼时的AI市场上,大模型的能力远不像如今这样强大,基本都是模仿ChatGPT的套壳聊天工具。
本文提供了一个整体流程框架。通过反复实验可以发现,大模型微调并不神秘,而是一个有章可循的工程流程。

关于如何搭建anythingllm+ollama(deepseekr1、嵌入模型)+milvus的本地知识库语言模型
本文将详细介绍如何使用Ollama,一个开源项目,在Mac上本地运行大型模型(Win同理)。通过遵循以下步骤,即使是配备了几年前硬件的电脑,也能够顺利完成部署和运行。

什么是多模态大语言模型?多模态大语言模型是能够处理多种类型输入的大语言模型,其中每个 “模态” 指的是一种特定类型的数据,如文本(就像传统大语言模型那样)、声音、图像、视频等。为简单起见,我们将主要关注图像模态以及文本输入。

本文将详细介绍如何使用 Cherry Studio 和 DeepSeek 搭建本地私有知识库,让你的知识管理更加高效和安全。

如果只选一项AI Agent框架进行学习的话,毫无疑问,一定是——LangChain。据不完全统计,目前全网大模型应用开发岗位90%要求掌握LangChain。

这篇文章将介绍一款深受好评的“知识库管理”工具 AnythingLLM 与一款小巧易用的“本地模型推理”工具 Ollama,并结合二者打造一个专属的本地 AI 助手。

本文从 MCP 开发的动机开始聊起,之后讲解了 MCP 的核心概念,最终进行了 Server 和 Client 的代码实践,希望这个过程能帮你打通从理论到实践的路径。当然,受篇幅所限,本文主要聚焦于最常见的 Tools 原语和无状态的 Streamable HTTPServer。MCP 还有如 Resources 和 Prompts 等原语、有状态(Stateful)服务的实现、以及更丰富的 Cl








