登录社区云,与社区用户共同成长
邀请您加入社区
本文从 Upwork 高客单 AI 项目出发,提出“成果型 Upworker”核心不是会写 prompt,而是能交付可验收、可运维的结果。给出能力地图四块:读单与方案、工程化实现、质量与可信、合规与运维,并用九步交付闭环串起从澄清需求到复购迭代的流程。强调先建立评测基线(Recall@K、引用覆盖、不完整率)再优化,避免“玄学调参”。专栏每篇沉淀可复用资产(SOW、评测、Runbook、Schem
GraphRAG通过引入知识图谱作为中间表示,将传统RAG的文本召回升级为结构化证据链召回,显著增强大模型的多跳推理、可解释性与可追溯性。文章分析了GraphRAG的实现路径、成本代价,并与本体方法对比,给出了基于任务复杂度、关系依赖度等四维度的场景选型策略,建议采用"轻量本体先行+GraphRAG增量生长+HybridRAG控时延"的混合方案,为构建可信智能系统提供技术路径。
本文为大模型转行新手提供全面指南,详细介绍NLP、计算机视觉等五大方向的能力要求与岗位匹配,揭示过度依赖理论、忽视基础等八大常见误区,并提供从基础学习到求职准备的六步路径。同时分享丰富的学习资源,包括路线图、教程、实战案例等,帮助读者系统掌握大模型技术,顺利进入AI领域。
摘要 上下文工程是优化AI性能的核心技术,通过精心设计输入内容(system提示、工具描述、对话历史)来提升模型表现。开发者需要解决系统提示编写、动态信息注入、对话管理和成本控制等问题;用户则需主动提供个性化信息以获得更好体验。文章揭示了工具调用、记忆功能、RAG检索和Agent框架的本质都是上下文管理,并提出了内容选择、结构设计、容量管理和动态更新等核心问题。最后分享了Manus平台的实战经验,
摘要: 上下文工程正成为AI开发的核心技能,80%的AI应用失败源于上下文信息不足而非模型本身。在RAG系统中,检索质量决定整体效果,普通模型配优秀检索系统往往优于顶级模型配差检索。上下文工程需管理动态信息流、工具访问、记忆系统和格式优化,确保AI获得高质量输入。随着模型能力提升,上下文质量将成为AI应用体验的关键瓶颈。
DeepSeek即将发布新一代AI模型V4,其编程能力已超越当前主流模型。V4在超长编程提示处理方面取得突破,对软件工程场景尤为重要。新模型训练周期中对数据模式理解更稳定,无性能回退问题。在资源受限条件下,DeepSeek通过精细训练策略而非堆资源实现突破。V4回答结构感更强,推理路径清晰,任务拆解可靠,将成为观察中国模型技术路线是否成熟的关键样本。
RAG系统数据准备是企业知识工程重构的关键环节,其核心流程包括:1)知识资产盘点,明确数据来源与权限;2)数据清洗,去除冗余信息并结构化;3)语义分块,按逻辑边界切分文本;4)元数据提取与增强,包括关键词、实体识别及摘要生成;5)向量化与索引构建。文章强调数据质量决定系统效果,建议采用分阶段实施策略,先验证基础架构再引入高级功能如Reranker。不同规模场景需采用差异化的处理方案,小规模系统可简
AI记忆机制经历了从RAG到Agentic RAG再到AI Memory的演进过程,实现了从"瞬时响应"到"终身学习"的转变。RAG通过检索增强生成提供上下文,但存在噪声问题;Agentic RAG引入智能代理优化检索流程;AI Memory则通过读写机制实现个性化服务。这一发展使AI能持续学习用户偏好,但也带来记忆管理、遗忘机制等新挑战。文章还提供了大模型
RAG(检索增强生成)结合搜索与大模型生成能力,核心是通过检索获取相关文档作为上下文,再由大模型生成自然语言答案。与传统搜索引擎不同,RAG直接输出答案而非链接列表,具备推理和内容生成能力。搜索质量决定RAG效果上限,常见组合模式包括搜索增强问答、搜索结果总结及搜索体验提升。RAG不是新搜索引擎,而是构建在搜索基础上的智能应用层,需要高质量搜索系统作为支撑。其工程实现需整合搜索、大模型、提示工程等
大厂资深架构师,表情冷峻。:资深“水货”程序员,擅长搞笑,对基础理论略知一二,但一触及深层架构就含糊。:大型音视频与内容社区(UGC)平台。
本文探讨了语义理解和语义检索在RAG架构中的区别与应用。语义理解是大模型固有的语言解析能力,在智能体架构中处于核心地位;而语义检索则是基于向量相似度计算的检索方法,主要用于匹配用户问题的相关文档。文章指出,向量数据库的本质是在传统数据库基础上增加向量计算功能,并非完全颠覆性技术。在RAG流程中,语义理解负责解析用户意图并生成查询参数,语义检索则负责召回相关信息。最后强调了AI大模型领域的人才需求和
在电商场景下,大模型(LLM)不知道你库里具体有哪些商品。索引阶段:把商品信息通过Embedding模型(如OpenAI text-embedding-3)转换成向量(一串数字),存入向量数据库(如Milvus, Chroma, Redis Vector)。检索阶段:用户问“显白口红”,把这个问题也转成向量,去数据库里搜最相似的商品。生成阶段:把搜到的商品信息作为“上下文(Context)”喂给大
针对以上问题,RAG(检索增强生成)技术提供了一种有效的优化方法。RAG通过结合检索和生成两个过程,利用检索到的外部信息来增强生成模型的表现。以下是一些RAG优化的大致优点:采用先进的检索技术:如密集向量检索、稀疏向量检索等,这些技术能够更好地捕捉文本之间的语义相似性,从而提高检索的准确性和效率。多向量表示:使用多个向量来表示同一个文档或查询,以捕捉不同方面的信息,从而增加检索的全面性。实时检索:
从传统RAG到GraphRAG,这不仅是技术的升级,更是思维方式的转变。我们不再只是被动地检索信息片段,而是主动构建知识的结构。大模型也不再只是做语言匹配,而是真正在理解和推理。虽然GraphRAG还不是完美的(毕竟也依赖于大模型的抽取质量),但方向是清楚的——让AI系统更像人类思考一样,理解信息之间的关系,看到知识的全貌。如果你的业务涉及复杂的知识库问答,值得尝试一下。而且现在有免费的云服务可以
构建健壮的RAG系统,尤其是企业级应用,涉及复杂组件集成与优化。如何在RAGFlow基础上实现性能优化,也成为大家关注的课题。
我宣布!大模型焦虑到此为止!把它当成“超级大脑”,10分钟包教包会
本文结合实践案例,帮助你用系统视角拆解 Agent 的概念、架构与落地路径。
• 大模型(人工智能大模型),是指基于深度学习技术,利用海量数据训练而成、具有大规模参数和复杂计算结构的机器学习模型。此类模型能够理解并生成多模态内容,具备逻辑推理和问题求解能力,已推动新一代人工智能发展的核心载体和关键基础设施。• 大模型的类别体系可从应用、部署与技术三个关键维度予以解析:在应用广度上,分为具备广泛跨领域适应性的通用大模型,与针对金融、医疗、教育、政务等垂直领域进行深度优化的行业
本文将介绍Agent的一些核心概念,Agent与LLM、workflow的区别,并搭建一个最简单的agent,了解LangGraph中的核心组件
本文侧重于能力总结和实操搭建部分,从大模型应用的多个原子能力实现出发,到最终串联搭建一个RAG+Agent架构的大模型应用。
预训练是指将一个模型在大量通用数据上进行初步训练,使其学习到一些普遍适用的知识,尤其是在自然语言处理(NLP)中。LLM 预训练阶段是教给大型语言模型(LLM)如何理解和生成文本的第一阶段。可以把它看作是阅读大量书籍、文章和网站,以学习语法、事实和语言中的常见模式。在这个阶段,模型通过不同的预训练策略(如自回归语言建模和掩码语言建模)学习文本结构。
今天,咱们来复盘一下Anthropic最新分享的关于多智能体系统构建的常委呢,他们几乎毫无保留地分享了如何从0到1构建一个强大的多智能体(Multi-Agent)DeepResearch系统,就是Claude现在内置的那个Research功能。
Ollama 是由 Ollama, Inc. 开发的,这是一家专注于本地运行 AI 模型的初创公司。该公司致力于让用户更方便地在本地设备(如个人电脑或服务器)上运行和管理大语言模型(LLM)。
大模型应用开发系列教程:第二章 模型不是重点,参数才是你真正的控制面板
大模型应用开发系列教程:第一章LLM到底在做什么?
今天我们先在之前几篇文章讨论BERT做文本分类的基础上,来介绍一下第二种方法:大模型微调(LLM Fine-tuning)。
RAG 的核心价值,是让 AI 从 “瞎编乱造” 变成 “有据可依”。而 Graph RAG 和 Agentic RAG 则是在这个基础上,让 AI 从 “找信息” 升级到 “懂逻辑”“会思考”。
文章介绍了AI记忆机制的演进历程:从RAG(检索增强生成)到AgentRAG(引入智能代理优化检索),再到AI Memory(实现读写机制)。传统RAG可能检索到无关内容,AgentRAG提高了检索效率但知识库只读,而AI Memory允许AI将对话经验、用户偏好等写入外部知识库,实现真正的个性化服务与持续学习。Agent记忆功能强大但也带来新挑战,需要设计记忆管理策略。有没有觉得早期的ChatG
本文详解Agentic RAG技术,通过LangChain、阿里云百炼DashScope和Chroma向量数据库,构建完整向量数据库流程,展示两种将RAG引入智能体的方法:动态系统提示词和RAG工具封装。这使智能体能主动决定检索策略、组合信息、重试检索并判断信息充分性,实现从"静态检索"到"智能信息获取"的转变,提升知识覆盖度、准确性与可解释性。
谢飞机梳了梳那稀疏的刘海,穿上了由于长期居家办公而略显紧绷的格子衬衫。今天,他要去一家头部互联网大厂面试,据说部门是做“下一代智能电商平台”的。“不仅要懂Java,还得懂AI?”谢飞机心里犯嘀咕,“不就是调个API吗,我熟。推开会议室的门,面试官正端坐着,手里拿着一份简历,眼镜片上折射出冷冽的光——这显然是一位“技术老鸟”。
场景:某互联网大厂会议室。人物:面试官推了推眼镜,扫了一眼简历:“谢飞机是吧?看你简历上写精通Spring全家桶,Java基础也很扎实。那我们先来聊聊基础的。”1. 面试官:“你简历提到了Java 17,能说说Java 8到Java 17之间,你觉得最有用的几个新特性是什么吗?”谢飞机(心里暗喜,背过): “这个我知道!首先是Java 9的模块化系统,虽然平时用的不多。然后是Java 10的局部变
NyRAG是一款革新性的零代码RAG开发工具,通过配置驱动模式大幅简化传统RAG应用的开发流程。该工具整合了网络爬取、文档处理、向量检索和聊天交互等核心功能,支持本地Docker或云端快速部署,可在几分钟内完成从数据采集到智能问答系统的搭建。相比传统RAG开发需要配置向量数据库、处理复杂嵌入流程等问题,NyRAG提供了开箱即用的解决方案,特别适合快速构建客服机器人、企业知识库等应用场景。其核心优势
30+程序员成功转行大模型经验分享 一位32岁北漂程序员分享了自己从传统软件开发成功转行大模型领域的经历。文章详细描述了他作为程序员面临的职业瓶颈和生活困境,分析了当前大模型领域的发展机遇和两类岗位(算法工程师/应用工程师)的工作内容差异。作者为零基础学习者提供了系统化的自学路径:从数学基础、机器学习理论到数据处理技能,并推荐了TensorFlow/PyTorch等工具的学习方法。特别强调了项目实
金融RAG系统技术实现全流程解析 本文详细阐述了金融领域RAG系统的完整技术实现路径: 解析阶段:采用结构化对象树保留PDF文档的层级、样式和版面信息,特别针对金融文档优化了表格解析和扫描件去噪方案,OCR准确率提升21%。 切分模块:创新性实现语义感知切分与智能Overlap机制,通过文档树递归切分和基于句子边界的Overlap策略,有效解决传统固定切分导致的语义断裂问题。 检索架构:构建混合检
摘要:DeepSeek V4大模型即将发布,专注于代码生成和复杂逻辑处理,目标是超越Claude并保持永久免费。DeepSeek在底层技术上取得突破,发表了《流形约束超连接》论文,并将R1论文扩展至86页详细解析。这不仅体现了中国AI技术的进步,也让中国在全球AI领域拥有更多话语权。作者期待V4的表现,并承诺第一时间测试分享体验。
RAG系统中语义理解与语义检索的区别与联系 本文解析了RAG(检索增强生成)系统中语义理解与语义检索的不同作用。语义理解是模型的基础能力,属于自然语言理解(NLU)阶段,在智能体RAG中负责问题分析和工具参数生成,直接影响工具调用的准确性。语义检索则是基于向量计算的检索技术,在传统RAG中通过向量数据库实现相似度检索,用于获取相关文档。两者协同工作:语义理解处理问题分析,语义检索负责文档获取,共同
通过面试官与水货程序员谢飞机的对话,深入浅出地讲解Java技术栈在互联网招聘场景中的应用,涵盖Spring Boot、微服务、AI Agent等核心技术点。
AI记忆机制经历了从RAG到Agentic RAG再到AI Memory的三阶段演进:RAG实现检索增强生成但存在噪声问题;Agentic RAG通过智能代理优化检索流程;AI Memory引入读写机制实现个性化服务。这一进化使AI具备持续学习能力,但也面临记忆管理的新挑战。文章还提供了系统学习大模型的四阶段路径(应用开发→高阶实践→模型训练→商业落地),并分享了大模型学习资料包。
随着大语言模型(LLM)的快速发展,RAG(检索增强生成)技术成为解决模型“幻觉”、提升专业领域回答精度的核心方案,而向量数据库则是RAG技术的底层支撑。向量数据库专门用于存储、管理和检索高维嵌入向量(Embedding),通过高效的相似度匹配算法,快速从海量数据中找到与查询向量最相关的结果。FAISS是由Meta(原Facebook)AI团队开源的轻量级向量检索库,并非严格意义上的“完整数据库”
今天,MiniMax团队将 MiniMax-M2.1 交给开源社区。这次发布不仅仅是参数更新,而是向顶级智能代理能力迈出的重要一步。
传字某节实习生涨薪150%?普通人别酸,这个AI岗位零基础也能拿16k!
智能体可以理解为,在数字世界里能自己“看”、自己“想”、自己“动”,拼命去完成一个目标的程序或系统。
当你问 AI “什么是人工智能?”时,它真的“读懂”了这几个字吗?其实,AI 根本不理解文字的含义——在它眼里,没有“苹果”“爱情”或“代码”,只有冰冷的数字。
文章摘要:本文介绍了在RAG系统中部署BGE-Reranker-v2-m3的重要性,该模型能通过交叉编码器架构深度分析查询与文档的语义关系,解决传统向量搜索的模糊匹配问题。文章包含原理分析、环境准备步骤和核心代码实现,通过示例演示了Reranker如何识别关键词陷阱并锁定逻辑答案,从而提升大模型输出的准确性。标准RAG流程建议先进行向量搜索粗排,再用Reranker精排,最终筛选出最相关的文档喂给
本文通过类比人类学习过程,解析了大语言模型的三步训练法:预训练阶段获取互联网知识并构建预测模型;监督微调阶段通过问答数据集训练模型回答问题;强化学习阶段让模型自主探索最优解法。最终形成的模型不仅能进行逻辑推理,还可能产生创新解法。文章指出AI本质是基于统计的预测模型,这与人类基于经验的"逻辑"能力可能存在相似之处。同时解释了模型产生"幻觉"的原因及缓解方法,
摘要:文章探讨了大型语言模型(LLM)从静态知识库向动态智能体的范式转变,分析了智能体的模块化架构(画像、记忆、规划、行动)及实现技术。指出当前企业大模型应用多局限于聊天服务,未能深入业务场景。文章比较了单智能体与多智能体系统的特点,强调提示工程、微调和记忆增强是提升智能体性能的三大关键技术。LLM智能体代表认知自动化的飞跃,将重塑知识工作形态,企业和个人需主动适应这一变革。研究认为,智能体的发展
最后我们再来回顾一下RAG的整体流程,首先外部文档进行分片,便于后续存储和检索,之后把分片之后的文档输入embedding模型,embedding模型把他们编码成固定长度的向量存储到向量数据库中,当用户提出问题时,会用相同的embedding模型把问题编码成固定长度的向量,之后把问题向量和向量数据库中所有向量进行比较,进行召回和重排之后得到相关的内容,最后,把用户最开始的问题和得到的相关内容合并一
企业数字化转型常陷入技术崇拜怪圈,忽视价值流失。真正的竞争力在于"精益为骨,数字为经,AI为智"的深度融合。需穿越三层价值结界:精益筑基用价值流图识别浪费;数字赋能用数据流动焊接断点;AI涌现被具体问题召唤。行动路线包括价值诊断、精益拉通和智能试点。精益卓越运营是技术回报的前提,2026年胜负在于解决具体车间问题的价值,而非追逐炫酷技术概念。
RAG
——RAG
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net