
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
本文介绍了Tool-to-Agent Retrieval (T2AR)框架,用于解决大模型多Agent系统中工具检索的挑战。该框架将工具与Agent嵌入同一向量空间,通过图结构建立连接,实现统一检索和自适应粒度调用。实验表明,T2AR在Recall@5指标上提升19.4%,在Amazon Titan v2模型上Recall@5提升高达28%。这一方法不仅提高了检索精度,还减少了上下文开销,为多Ag

本文分享了作者参加的大模型应用开发岗位面试经验,覆盖阿里、腾讯等25家大厂。面试内容主要围绕LLM基础、RAG、微调、Agent等技术点,八股文较少。作者强调掌握微调原理和动手实践的重要性,分享了面试技巧、offer谈判策略及常见面试题解析。建议做好技术准备、项目复盘和清晰表达,关注落地效果评估。

AI大模型正以爆发态势重塑银行业,凭借涌现性和通用性,在智能客服、风险评估、个性化营销、智能投研和运营优化五大场景实现规模化应用。然而,算法黑箱、数据安全、合规伦理及人才缺口仍是主要挑战。未来,银行将通过技术突破、数据治理、人才培养和生态协同,推动AI大模型从技术试点迈向深度融合,成为银行业高质量转型的核心驱动力。

近年来,大模型的热度持续攀升,从ChatGPT到DeepSeek,从通用问答到行业场景,企业纷纷将AI转型提上日程。然而,许多企业在实际落地中陷入误区:要么盲目追求“参数越大越好”,要么迷信某款明星模型能“包治百病”。本文将从价值定位、选型方法、场景适配三大维度,为企业拆解大模型应用的底层逻辑。

知识蒸馏是将大模型知识迁移到小模型的压缩技术,保持性能的同时实现轻量化。文章详解输出层、中间层和关系层知识蒸馏方法,以及多教师、图神经网络融合等变体。通过hook机制获取模型知识,设计蒸馏损失函数,使小模型学习大模型的特征表示和知识结构,适合资源受限场景部署。

本文探讨了RAG技术的演进历程,从依赖外部向量数据库的传统RAG到基于大模型上下文窗口的In-Context检索。传统RAG因上下文碎片化、数值理解差等结构性瓶颈逐渐被淘汰,而Claude Code和PageIndex等创新方案展示了上下文内检索的优势:无需分块、嵌入和重排序,模型可直接在上下文中理解、定位与思考信息。随着上下文窗口的扩大,In-Context检索正成为RAG的未来发展方向。

本文详细对比了人工智能工作流与智能体的核心差异。工作流如同装配线,遵循固定路径,具有可预测性但缺乏适应性;智能体则能感知环境、自主决策,具备动态调整能力。文章从架构、行为特征、适用场景等方面分析了两者区别,并提供了选择指南和混合架构设计思路,帮助开发者根据实际需求构建更高效、灵活的大模型应用系统。
这个基于 AI 大模型的开源知识库搭建系统,可以帮你轻松搞出来一个智能化的产品文档、技术文档、FAQ甚至博客系统。无论是企业内部的技术文档,还是面向用户的产品说明,PandaWiki 都能轻松胜任。

这篇论文系统分析了LLM的六大根本局限性:模型幻觉、上下文局限、推理能力问题、查询脆弱性、多模态挑战和Benchmark局限。文章通过形式化证明揭示了这些局限为何不可避免,如幻觉源于计算理论限制,上下文受位置编码饱和影响,推理能力受目标错配制约,多模态融合存在信息瓶颈等。理解这些局限性对开发更可靠的大模型应用至关重要。

本文详细介绍了如何使用开源模型nomic-embed-text搭建专属RAG知识库,实现高效的本地文档检索。文章首先介绍了nomic-embed-text模型的基本信息、特性和性能优势,然后提供了完整的本地RAG知识库搭建步骤,包括模型下载、文档上传、向量化存储和精准检索测试。最后还展示了该模型的其他使用方式,适合开发者快速上手构建自己的RAG系统。








