
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
文章揭示长上下文大模型的四大失效模式(中毒、分散、混淆、冲突)及解决方案。通过上下文工程(压缩、摘要、隔离、分层式行为空间)可有效管理长上下文。Manus实战经验表明,避免过度工程、简化架构、信任模型是关键,应在模型能力与上下文管理间找到平衡,让AI助手真正发挥作用而不被长上下文"反噬"。

文章详细介绍了9种高级RAG技术,包括文本分块、重新排序、利用元数据、混合搜索、查询重写、自动裁剪、上下文蒸馏、微调大型语言模型和微调嵌入模型。这些技术能有效解决基本RAG系统面临的结果嘈杂、上下文不相关等问题。文章还提供了使用Meilisearch、LangChain等工具实现这些技术的具体方法,以及评估RAG系统效果的指标,帮助开发者构建更精准、高效的AI应用。

LATTICE是一种创新的LLM引导的层次化检索框架,通过将文档库组织成语义树结构,实现对数复杂度的搜索。该框架采用两阶段设计:离线阶段构建语义层次结构,在线阶段由LLM进行智能导航搜索。其创新的校准路径相关性评分机制解决了LLM判断噪声大、依赖上下文等问题,在BRIGHT基准测试上,Recall@100提升最高达9%,nDCG@10提升最高达5%。这种方法完全训练无关,易于更新和维护,为信息检索

本文详细介绍了如何构建深度研究智能体(Depth Research Agent),该系统能自动对预设主题进行深入研究并生成报告。文章从系统架构到具体实现步骤全面解析,包括使用DeepSeek-R1模型、规划研究大纲、执行网络搜索、数据反思和最终报告生成等关键技术环节。作者提供了完整代码实现和Streamlit应用示例,使开发者能快速构建自己的AI研究助手,提高研究效率和报告质量。

AI智能体从1.0到2.0的架构演进,通过显式规划、分层委托、持久化内存和极致上下文工程四大支柱,解决了浅层智能体在处理复杂多步骤任务时的上下文溢出、目标丢失等问题,使AI系统能够处理需要数小时甚至数天才能完成的复杂任务。

倒数排序融合(RRF)是一种简单高效的算法,用于合并多个检索系统的结果排序列表。通过公式RRF_score(d) = ∑ 1/(k + rank(d))计算最终得分,无需分数归一化。在RAG系统中广泛应用于混合检索、多查询检索和多模态检索场景。相比其他融合方法,RRF实现简单、无需调参、跨系统兼容,能有效提升检索质量。文章提供了Python实现代码和RAG-Fusion进阶应用,并讨论了优势、局限

新架构,再次向Transformer发起挑战!。甚至,所以该方法称为共同一作UC伯克利的Karen Dalal表示:我相信这将。一个TTT层拥有比RNN表达能力更强的隐藏状态,可以直接取代Transformer中昂贵的自注意力层。在实验中,隐藏状态是线性模型的TTT-Linear表现超过了Transformer和Mamba,用更少的算力达到更低的困惑度(左),也能更好利用长上下文(右)。此外,隐藏

今天要介绍的 X-R1框架 ,正在用强化学习重构训练规则!这个由华人团队研发的开源工具,首次让3090显卡集群实现7B模型高效训练,1小时成本仅需9.9美元。已有Early adopters用它完成:✅ 32B模型在64G显存环境分布式训练✅ 企业级对话模型微调成本降低87%✅ 单卡实现R1-Zero算法的在线采样优化是时候打破算力垄断了——你的显卡准备好了吗?

随着人工智能的快速发展,检索增强生成(Retrieval-Augmented Generation,RAG)技术正在经历前所未有的演变。RAG技术通过将外部知识融入大型语言模型(LLM)的生成过程,极大地提高了AI系统的事实准确性和可靠性。如今,RAG正向更具智能性和自主性的方向发展,能够处理像超图这样的复杂结构,并适应各种专业领域的需求。本文将介绍11种最新的RAG类型,展示这一技术领域的创新前

AI Agent 作为具备自主行为能力的智能体,其系统架构设计对功能实现与性能表现至关重要。本文基于 LLM 的AI Agent系统架构设计,分四部分展开。








