登录社区云,与社区用户共同成长
邀请您加入社区
AI Agent是能感知环境、自主决策并采取行动的智能体,与传统AI仅被动回答问题不同,它能主动执行复杂任务。文章解析了AI Agent的核心能力(感知、决策、执行、学习),展示了其在办公、开发、工业等领域的应用案例,并强调AI Agent代表人工智能从"会思考"到"会行动"的进化趋势,是未来智能系统的重要组成部分。
文章系统分析了AI应用架构的三大发展阶段:GenAI、AI Agents和Agentic AI,详细阐述了各自的特点、架构及安全威胁。GenAI专注于内容生成,AI Agents具备任务执行能力,Agentic AI强调自主决策。文章通过OWASP等权威框架,解析了各类型AI系统的TOP威胁特征及应对措施,强调理解AI架构对安全分析的重要性,为AI系统安全防护提供了系统性的方法论。
文章详细介绍了多模态大模型架构,特别是视觉语言模型(VLM)和语音语言模型(SLM)。VLM通过对比学习、掩码预测、生成式学习和映射学习等方法实现图像与文本的理解和生成。SLM则通过不同的输入输出模式、语音表示学习方法和融合架构,实现语音与文本的结合。这些架构使AI能够同时处理和生成多种模态的信息,接近人类的多模态认知能力。
非结构化数据,如文本文档和网页,蕴藏着大量有价值的信息。挑战在于如何挖掘这些见解,并连接分散来源之间的点。知识图谱将这些非结构化数据转化为结构化表示。它们绘制出关键实体、关系和模式,支持高级语义分析、推理和推断。
AI大模型推理框架选型指南(2025) 本文系统分析了2025年主流LLM推理框架的技术特性和应用场景。高性能方案以vLLM(PagedAttention架构)、LMDeploy(GPU极致优化)、SGLang(分布式部署)为代表;轻量化方案包括Ollama(本地部署)、Llama.cpp(CPU优化)等;灵活部署框架如XInference(多模兼容)、LiteLLM(API集成)满足多样化需求。
SEARCH-R1代表了构建能与外部信息源动态交互的大型语言模型的重要进展。通过将强化学习与搜索引擎交互有机结合,该模型不仅提高了事实准确性,还增强了多轮交互中的推理能力。强化学习与基于搜索推理的创新性集成在多样化数据集上验证的明显性能提升对不同模型架构和规模的适应性与灵活性奖励机制虽然设计简洁有效,但对于更复杂应用场景可能需要进一步优化对预定义搜索接口的依赖可能限制了系统对多样化信息源的适应能力
尽管现代大型语言模型(LLMs)在各种任务上展现出卓越的性能,但它们的规模在实际部署中带来了诸多挑战。近期模型压缩技术的创新有助于通过降低LLM解决方案的计算成本来缓解这些挑战。本文讨论了三大类压缩技术(量化、剪枝和知识蒸馏),并通过Python实例演示了它们的实际应用。作者: Shaw Talebi。
在使用GPT BERT模型输入词语常常会先进行tokenize ,tokenize的目标是把输入的文本流,切分成一个个子串,每个子串相对有完整的语义,便于学习embedding表达和后续模型的使用。tokenize有三种粒度:word/subword/char最常用的三种tokenize算法:BPE(Byte-Pair Encoding),WordPiece和SentencePieceBPE,即字
2025年AI智能体大模型终极指南:从概念拆解到落地实践,建议永久收藏
本地交互式知识图谱构建工具:Local Knowledge Graph,做企业内部知识库或个人知识管理的可以关注下。Local Knowledge Graph从本地数据源构建知识图谱,并提供可视化和分析功能。提供交互式 Web 界面,展示推理过程,并将推理步骤以动态知识图谱的形式可视化,基于语义相似性提供问题回答。
Chain of Draft (CoD)作为一种新型方法论,针对性解决了大型语言模型(LLM)一个关键但常被忽视的维度:推理能力与响应延迟之间的权衡问题。该方法通过显著降低LLM输出中的冗余表达,有效减少了延迟并降低了计算成本,同时保持甚至提升了相较于思维链(CoT)等传统方法的推理准确性。通过引导LLM生成简洁而关键的推理步骤,CoD显著降低了复杂推理任务所需的响应时间。这一创新对需要低延迟与高
不同于RNN、CNN等模型,对于Transformer模型来说,位置编码的加入是必不可少的,因为纯粹的Attention模块是无法捕捉输入顺序的,即无法区分不同位置的Token。为此我们大体有两个选择:形式上来看,绝对位置编码是相对简单的一种方案,但即便如此,也不妨碍各路研究人员的奇思妙想,也有不少的变种。一般来说,绝对位置编码会加到输入中:在输入的第kkk个向量xkx_kxk中加入位置向量pk
由于单个文档的长度往往会超过模型支持的上下文,导致检索得到的知识太长超出模型的处理能力,将单个文档按长度或者按固定的规则分割成若干个 chunk,然后将每个 chunk 转化为词向量,存储到向量数据库中。print(f"载入后的变量类型为:{type(md_pages)},",f"该 Markdown 一共包含 {len(md_pages)} 页")print(f"载入后的变量类型为:{type(
大型语言模型(LLM)是一种基于深度学习的算法,能够执行多种自然语言处理任务。其核心采用转换器神经网络架构,通过海量数据训练实现对语言的理解和生成。LLM的工作原理包括编码输入文本、解码生成输出预测,并经历预训练和微调两个阶段优化性能。训练过程使用无监督学习技术,模型通过自我监督方式预测序列中的词语。LLM在自然语言处理(NLP)中应用广泛,涉及情感分析、机器翻译等任务。NLP技术包括基于AI、规
【摘要】当前AI大模型应用开发迎来黄金期,行业呈现两大特征:一是技术趋势明确,应用侧机会涌现;二是RAG、Agent等方向处于早期发展阶段,存在巨大市场空白。与此同时,AI人才需求激增,相关岗位薪资涨幅达150%,年包可达70-100万。为助力开发者抓住机遇,咕泡科技推出AI大模型实战训练营,覆盖多行业应用场景,并提供百万奖学金支持。建议技术从业者及早布局AI能力,提升未来竞争力。
如果你一直在关注大型语言模型的架构,你可能会在最新的模型和研究论文中看到“SwiGLU”这个词。SwiGLU可以说是在大语言模型中最常用到的激活函数,我们本篇文章就来对他进行详细的介绍。SwiGLU其实是2020年谷歌提出的激活函数,它结合了SWISH和GLU两者的特点。
一站式使用、Claude、等全球大模型API,甚至DeepSeek、Gemini等还能免费使用!今天,就给大家带来这款神器——Gaetone.ai,让你在国内也能轻松畅玩全球AI大模型!
小白也能懂!一文全面说透 AI 大模型,从概念到入门实操
BAML 是由 Boundary 创建的一种语言,用于从非结构化数据生成干净、结构化的输出。Neo4j 是一种图数据库,用于以图的形式存储数据——包括节点和它们之间的关系。在本文中,我将演示如何扩展 BAML 的一个示例项目,将网页内容转换为图表示,从而快速填充 Neo4j 实例。
知识图谱是一种结构化的知识库,它以图的形式表示和存储现实世界中的实体、概念及其相互关系。这些实体可以是具体的人、地点、事物,也可以是抽象的概念或思想。
本文详细解析了RAG(检索增强生成)架构的性能瓶颈与高阶优化方案。主要内容包括:1)RAG核心架构全景图及性能瓶颈分析;2)检索阶段优化策略如多路召回架构和重排序技术;3)生成阶段优化方法包括上下文压缩和源头引用机制;4)工业级工具链整合与端到端工作流实现;5)性能评估体系与监控方案。文章还提供了生产环境部署建议和常见问题解决方案,最终可使系统达到平均响应时间<1.2秒、事实准确率92%+、
【深度收藏】多模态大模型核心架构拆解:从组件原理到应用逻辑,读懂MM-LLMs的底层逻辑
XOT提示技术代表了在激发大型语言模型的能力方面的重大进步。通过将MCTS和LLM知识协同结合,XOT与之前的提示范例相比具有更好的性能、效率和灵活性。XOT产生的灵活的思维结构能够创造性地解决问题,而协作修订过程以最少的LLM交互产生高质量的解决方案。作者:Raphael Mansuy。
知识图谱是一种以图形化方式表达知识及其相互关系的技术。它通过节点和边的三元组形式,构建起复杂的网状知识结构。在知识图谱中,节点代表知识实体,边代表实体间的关系,而知识则是实体及其内涵的集合。知识图谱不仅能够可视化知识体系,还能通过可视化技术挖掘、分析、构建和显示知识资源及其相互联系。
头秃啊,第一遍看readme少看了,数据结构错了之后,回回能训练,但是测试没效果,tensorboard打开还是空,一遍一遍看log,没有找到异常,重新看readme,发现可能是数据集问题。这个数据格式很重要,上面我手搓的数据集也能跑,但结果是跑了好几次,精度都没有任何变换,另外记得路径最好用绝对路径,忘记是啥坑了,只记得得出来的结论是绝对路径更保险。这个在sensevoice的readme里面没
RAG的全称是Retrieval-Augmented Generation,中文翻译为检索增强生成。RAG是一种新颖的机器学习方法,它结合了预训练的语言模型和检索系统。其核心思想是在进行文本生成之前,先通过一个检索系统查找相关的文档或信息,然后把这些信息“融合”到语言模型中,辅助模型生成更准确和丰富的内容。
今天我们讲了两大类“理解大模型在想什么”的方法:第一类是“直接分析模型内部”——像给大脑插电极、做测谎器,分析Embedding、Attention、训练数据,这种方法的局限是“依赖开源”,如果是ChatGPT这种闭源模型,你拿不到它的Embedding,就没法深入分析;第二类是“直接问模型”——不管开源还是闭源,都能问它“为什么”,但缺点是“解释不一定可信”,可能是编的。这两种方法就像我们了解一
大型语言模型在ChatGPT以后经历了快速的发展。这些发展包括模型规模的增加、领域专精化、语义理解和推理能力的提升、训练效率和速度的提高,以及对偏见的理解和应对等方面。除了以上6个比较好的开源大语言模型外,还有各种不同版本,所以HuggingFace创建了一个排行榜(leaderboard)作者:Varun Mathur。
官网:https://microsoft.github.io/graphrag微软开源的一项结合了知识图谱的检索增强生成技术。简单来说,它可以显著提升AI知识库的性能,让AI能根据你提供的文档,更准确地回答你提出的复杂问题。
大模型企业应用新姿势!“执行行动” 型用法,小白也能轻松入门
检索增强生成(Retrieval Augmented Generation,RAG)是一种连接外部数据源以增强大语言模型(LLM)输出质量的技术。这种技术帮助 LLM 访问私有数据或特定领域的数据,并解决幻觉问题。因此,RAG 已被广泛用于许多通用的生成式 AI(GenAI)应用中,如 AI 聊天机器人和推荐系统。一个基本的 RAG 通常集成了一个向量数据库和一个 LLM,其中向量数据库存储并检索
RAG 系统无疑为自然语言处理领域带来了革命性的变化。通过结合检索和生成的技术,它能够提供更准确、更相关的信息。随着技术的不断进步和社区的持续贡献,我们有理由相信,RAG 系统将在未来的 NLP 应用中扮演更加重要的角色。因为这个行业不同于其他行业,知识体系实在是过于庞大,知识更新也非常快。作为一个普通人,无法全部学完,所以我们在提升技术的时候,首先需要明确一个目标,然后制定好完整的计划,同时找到
KittenTTS是由KittenML团队开发的一款开源的轻量级文本转语音(TTS)模型,旨在为用户提供高效、低功耗且易于集成的语音合成解决方案。该模型体积仅为25MB,参数量约1500万,是目前最小的开源TTS模型之一。它无需GPU支持,可在树莓派、低功耗嵌入式设备或移动端实时运行,同时提供8种预置音色(4男4女),支持多语言(目前主要支持英语),并通过ONNX/PyTorch格式集成到各种应用
大模型编排工具Dify的安装与配置 本文介绍了主流大模型编排工具,重点讲解了开源工具Dify的安装和使用方法。主要内容包括: 常见大模型编排工具对比:Dify、Semantic Kernel、Jittor LLM等开源工具,以及腾讯智影等商用工具的特性与适用场景。 Dify平台概述:作为融合后端即服务(BaaS)和LLMOps的开源平台,Dify支持快速搭建生产级AI应用,提供可视化Prompt编
2018年谷歌推出的BERT模型开创了自然语言处理新范式。该模型基于Transformer编码器,首次实现双向文本理解,通过"遮字猜词"和"判断连贯"两个预训练任务掌握深层语义。BERT提供BASE和LARGE两种规模,在GLUE等基准测试中表现卓越,部分指标超越人类水平。其突破性在于采用预训练-微调框架,使各类NLP任务可共享基础模型,大幅提升泛化能力。BERT不仅被应用于搜索引擎优化(如谷歌、
在大模型处理文本之前,首先需要将文本转换成模型能理解的数字格式,这个过程称为Token化Token可以是单个汉字、词语、子词甚至标点符号。示例分析句子:“我爱自然语言处理”可能被拆分为:[“我”, “爱”, “自然”, “语言”, “处理”]每个Token被分配唯一ID:我→100、爱→200、自然→300等Transformers库:支持数千种预训练模型Model Hub:模型共享和发现平台Da
MCP(Model Context Protocol)是一种标准接口,允许大模型像连接USB-C一样访问外部工具、代码库和数据源。它通过本地stdio、远程SSE或HTTP三种方式连接,支持管理GitHub、Sentry等数百种服务。MCP配置分为本地、项目和全局三个作用域,常用命令包括添加、查看和移除连接。推荐工具包括文件系统访问、浏览器自动化、GitHub协作等场景,可显著提升开发效率。该协议
本文介绍了基于MCP协议的AI应用开发实践。MCP(ModelContextProtocol)是Anthropic推出的标准化协议,用于连接AI模型与外部数据源/工具,类似"AI的USB-C接口"。文中展示了使用Spring Boot 3.4.4和Spring AI 1.0.0-M6构建的MCP服务端和客户端实现,包括天气查询、书籍检索等功能。服务端通过@Tool注解暴露API
本文系统梳理大模型从基础认知到实战落地的完整知识体系。首先介绍大模型的发展历程、技术优势及行业应用场景;其次深入解析Transformer架构、预训练微调等技术原理;随后提供开发工具选择、模型训练评估等实战指南;并详细分析NLP、CV等领域的应用案例。最后探讨模型偏见、隐私安全等挑战及应对策略,展望未来技术趋势。内容涵盖原理拆解、案例佐证和实战指引,适合AI从业者系统学习大模型技术及应用。
随着 **Transformer 架构** 的成功,人工智能不仅在语言处理上突飞猛进,在视觉、语音等领域也迎来了突破。如今,研究者们已经能够把“看”和“听”的能力与“语言”结合起来,形成了功能强大的 **视觉-语言模型** 和 **音频-语言模型**。
AI智能体记忆系统:突破"健忘症"的类人架构设计 当前AI智能体的核心痛点在于缺乏长期连贯记忆,导致上下文理解受限。本文提出三层类人记忆架构:情节记忆层存储原始数据(文档/对话),实体关系层构建结构化知识图谱,社群摘要层生成抽象概念簇。这一仿生设计使Agent具备深度上下文感知和高效检索能力,实现从"工具"到"伙伴"的跨越。该架构通过分层
本文提出Flat-LoRA方法,解决了传统LoRA在低秩参数空间优化的局限性。传统LoRA虽能高效微调大模型,但其局部最优解可能在全局参数空间中处于陡峭区域,导致模型鲁棒性和泛化能力不足。Flat-LoRA通过优化低秩矩阵A和B,使模型在全局参数空间中也具备平滑的损失景观。与需要计算"最坏扰动"的LoRA-SAM不同,Flat-LoRA采用更高效的随机扰动策略:优化"
本文详细介绍了RAG系统中的后检索优化技术——校正(Correction)及其实现方案CRAG。CRAG通过轻量级检索评估器评估文档相关性,根据置信度触发不同检索动作,实现智能质量评估和自适应检索策略。文章展示了使用LangGraph实现CRAG的完整流程,包括文档检索、评分、查询重写、网络搜索和答案生成。该技术能有效提升RAG系统在检索出错场景下的鲁棒性,让AI回答更加精准可靠,但同时也增加了系
大模型时代的到来,将算法工程师的职业发展带入了全新的境地。在这个浩瀚的数据海洋中,算法工程师们面临着前所未有的挑战和机遇。
Ray Summit是Ray社区一年一度的全球盛会,2024年于9月30日至10月2日在美国旧金山举行,主题是"Where Builders Create the AI Future",聚焦于构建人工智能的未来,吸引了全球众多AI开发者和行业领袖。今年的Ray Summit不仅是一个技术交流的平台,更是一个展示最新AI技术和趋势的舞台。
时间:2024年6月25日 14:00-18:10地点:阿里巴巴云谷园区访客中心441会议室(文澜书院)会议信息OpenKG将于2024年6月25日组织 OpenKG走进通义实验室:“知识图谱+语言模型”赋能通用AI系列沙龙第三期。来自OpenKG的三位TOC专家:通义实验室黄非博士、东南大学漆桂林教授、柯基数据CEO吴刚,来自学术界的四位青年学者:北京大学的贺笛助理教授、上海交通大学陈露副教授、
语言模型
——语言模型
联系我们(工作时间:8:30-22:00)
400-660-0108 kefu@csdn.net