
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
由于提示词膨胀和选择复杂性,大语言模型(LLMs)难以有效利用越来越多的外部工具,比如由模型上下文协议(MCP)[1]定义的那些工具。我们引入了RAG-MCP,这是一种检索增强生成框架,它通过将工具发现任务卸载来克服这一挑战。RAG-MCP在调用大语言模型之前,使用语义检索从外部索引中为给定查询识别最相关的MCP。只有选定的工具描述会被传递给模型,这大幅减少了提示词的大小并简化了决策过程。

2025 年,人工智能依然是科技圈最热的风口。ChatGPT、Claude、DeepSeek 等模型层出不穷,不断刷新人们对 AI 能力的想象。而支撑这一切的,正是大语言模型(LLM)——这个曾经只是大厂的专属!但问题来了:构建一个属于自己的大模型,真的非得依赖大团队、大算力、大预算不可吗?其实未必!Build a Large Language Model (From Scratch) 这本书,正

在学习嵌入模型之前,我们需要先了解什么是Embedding。简单来说,Embedding是一种将离散的非结构化数据(如文本中的单词、句子或文档)转换为连续向量的技术。在自然语言处理(NLP)领域,Embedding通常用于将文本映射为固定长度的实数向量,以便计算机能够更好地处理和理解这些数据。每个单词或句子都可以用一个包含其语义信息的向量来表示。Embedding常用于将文本数据映射为固定长度的实

LangGraph 是由 LangChain 团队开发的。

的提出源于谷歌的Vaswani 等人于2017年发表的著名论文 《Attention Is All You Need》,作为Transformer架构的核心技术,其被广泛应用于自然语言处理(NLP)和计算机视觉(CV)等领域,为后来的如BERT、GPT等许多先进的模型奠定了基础。本文将从方面详细介绍自注意力机制和多头自注意力机制。在自然语言处理任务中,自注意力机制和多头自注意力机制提出之前的循环神

AI 智能体是利用 LLM 处理信息、与工具交互并执行任务的系统。工作流(Workflow)LLM 与外部工具按照预定义的执行路径进行结构化序列操作。此类系统注重可预测性,适用于定义明确且可重复的任务。智能体(Agent)更具动态性和自主性的系统,LLM 可自主决定流程、选择工具并确定任务完成方式。这种方式提供了更大的灵活性和适应性。选择工作流还是智能体取决于问题领域:工作流在结构化自动化任务中表

本文是一篇关于大模型的综述文章,旨在帮助读者快速了解并深入研究大模型的核心概念和技术细节。

在产品经理学习使用AI的道路上,试错和成长是必经之路。每一位成功驾驭AI工具的产品经理,都经历过不断尝试和持续改进的过程。有些尝试可能不尽如人意,但正是这些经历帮助他们形成了自己独特的工作方法。对于刚开始在工作中应用AI的产品经理来说,不必因为初期的不完美而气馁。可以先从一些基础场景开始尝试,比如文档撰写、会议记录或竞品分析等日常工作。在实践中逐步建立对AI工具的认知,找到最适合自己的使用方式。作

层级名称是否调用工具是否支持协作是否自主迭代1❌❌❌2✅(分路由)❌❌3✅❌❌4✅✅❌5✅✅✅。

大型语言模型(LLMs)虽然展现出卓越的性能,但在处理特定领域或知识密集型任务时,存在一些挑战,比如:产生虚假信息、知识陈旧以及推理过程的非透明性和不可追溯性。RAG 技术作为一种有希望的解决方案,通过融合外部数据库的知识,有效应对了这些问题。它显著提升了生成内容的准确性和可靠性,尤其在知识密集型任务中表现突出,并支持知识的持续更新及特定领域信息的整合。:大模型首先在外部知识库中搜寻与输入文本相关








