
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
上下文工程是在LLM约束下优化上下文token效用,以持续获得理想输出的工程实践。文章介绍了上下文工程的重要性,以及如何通过上下文卸载与检索、上下文摘要、上下文隔离和多智能体架构等方法来管理不断演变的上下文状态,帮助读者更好地理解和应用大模型技术。
本文针对 Java 开发者关注 Agent 开发的需求,介绍了 AgentScope-Java 框架。文章首先分析了 Java 在企业级应用中的不可替代性以及 Agent 开发的真正门槛,接着详细阐述了 AgentScope-Java 的核心特性和优势,包括 ReAct 范式支持、透明化设计、工具调用体系等。此外,文章还提供了快速上手教程和进阶实战案例,并探讨了生产级实践中的可观测性、A/B 测试
本文以通俗易懂的语言和关系图,详细解析了Skill、Agent、MCP、OpenClaw、Harness这五个AI核心概念。Skill是AI的标准化动作库,Agent是AI的总指挥,MCP是AI的万能接口,OpenClaw是个人AI运行平台,Harness是企业级AI管控平台。文章通过生活化类比和场景对比,帮助读者清晰理解它们之间的关系和适用场景,为小白和程序员提供入门指南。

本文以通俗易懂的语言和关系图,详细解析了Skill、Agent、MCP、OpenClaw、Harness这五个AI核心概念。Skill是AI的标准化动作库,Agent是AI的总指挥,MCP是AI的万能接口,OpenClaw是个人AI运行平台,Harness是企业级AI管控平台。文章通过生活化类比和场景对比,帮助读者清晰理解它们之间的关系和适用场景,为小白和程序员提供入门指南。

先说思路:利用开源平台Dify搭建RAG+智能体,然后将其嵌入到你的官方网站。最终效果是这样的。

自ChatGPT为代表的大语言模型(Large Language Model, LLM)出现以后,由于其惊人的类通用人工智能(AGI)的能力,掀起了新一轮[自然语言处理]领域的研究和应用的浪潮。尤其是以ChatGLM、LLaMA等平民玩家都能跑起来的较小规模的LLM开源之后,业界涌现了非常多基于LLM的二次微调或应用的案例。本项目旨在收集和梳理中文LLM相关的开源模型、应用、数据集及教程等资料,目

多模态大型语言模型(MLLMs)代表了人工智能(AI)领域的一项重要进化,使得对多种输入类型(如文本、图像、音频和视频)的整合和理解成为可能。不同于仅处理单一输入类型的单模态模型,MLLMs可以同时处理多种模态,从而提供更全面的理解,反映出真实世界的交互方式。MLLMs的关键特性和重要性包括:跨模态学习:MLLMs在包含文本、视觉、听觉,有时甚至是传感数据的大规模数据集上进行训练。此功能使其能够在

知识库是智能客服的核心前提,决定AI回答质量。当知识库小于100万字可直接提交给大模型,大于时需采用RAG技术。RAG技术包含分片、创建索引、召回、重排、生成五个步骤,能有效提高检索效率和回答准确性。智能客服结合AI大模型与知识库可减少80%人工客服工作,是AI最实用的落地场景之一,也是企业构建智能客服的基础。

本文介绍了AI Agent的概念、核心能力(感知、推理、行动、学习)及其典型架构。通过LangChain、AutoGen、LlamaIndex等框架实例,阐述了Agent的技术实现方案。同时,分析了幻觉、上下文长度、工具调用等关键挑战及解决方案,并展示了自动化数据分析、智能客服、代码辅助开发等实战应用场景。最后,提出了性能优化建议并对比了不同框架的优劣,为读者提供了从入门到实践的学习路径。

文章详解多模态大模型架构,包括视觉语言模型(VLM)的四种训练方法(对比学习、掩码预测、生成式学习、映射学习)和语音语言模型(SLM)的表示学习与融合架构。介绍了双编码器、融合和编码器-解码器三种主要架构设计,以及通过混合模态注意力机制、对比学习和强化学习提升模型性能的方法,帮助读者全面理解多模态AI技术原理与应用。








