logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AI大模型眼花缭乱,企业到底应该怎么选?看完这篇文章你就知道了!!

随着人工智能技术的突破和算力的不断提升,大模型的应用也变得越来越广泛。用不用AI已经不是一个选择题,而变成了一个必答题。这几年来,人工智能在多个领域的应用不断扩展,尤其是在自然语言处理(NLP)、计算机视觉、自动驾驶、医疗健康等领域,深度学习和生成模型的突破为各行业带来了变革,也带来了新的想象空间。但真正的考验,其实才刚刚开始。对很多企业来说,问题在于:面对几千款大模型,到底应该选哪个?选了一款大

文章图片
#人工智能
Google A2A协议深度解析:智能体间协作的黄金标准,大模型开发者必学!

Google发布的Agent2Agent Protocol(A2A)是一个促进不同类型智能体间高效沟通与协作的开放协议,提供安全协作、任务状态管理、用户体验协商和功能发现四大特性。该协议通过AgentCard、Task、Artifact等核心概念,采用C/S模式和HTTP通信,实现Agent间的互操作。作为MCP的补充,A2A强调Agent间的对等交互,将有力推动Agent生态系统的完善与发展,是

文章图片
#数据库#人工智能#运维
【必学收藏】LangGraph智能体设计模式完全指南:从零构建大模型应用

LangGraph提供了基于图的框架来定义、可视化和调试LLM智能体工作流。文章详细介绍了六种智能体设计模式:提示链将复杂任务分解为步骤;路由与并行化高效处理查询;反思使智能体能自我评估改进;工具使用集成外部API;规划构建可执行序列;多智能体协作协调专业智能体解决复杂问题。每种模式都配有代码示例,帮助开发者构建稳健、灵活且可扩展的AI系统。

文章图片
#人工智能#AI智能体
小白也能看懂的LLM大模型技术演进与核心原理!

文章从RNN、Encoder-Decoder架构演进到Transformer,详细解析了Self-Attention机制及其变体。LLM作为基于Transformer架构的巨参数模型,通过海量文本训练,实现了语法理解、语义关联、知识获取和推理能力。尽管LLM在理解能力和应用方面表现强大,但仍存在幻觉和非即时资料等限制。围绕LLM的CoT、RAG等技术进一步拓展了AI应用边界。

文章图片
#语言模型#人工智能#数据库 +1
收藏必学!大模型RAG技术20种实现方式与应用场景全解析,零基础小白收藏这一篇就够了!!

文章系统介绍20种RAG技术类型,包括基础检索与生成集成、智能体RAG、图RAG等,分析各类技术的特征、优势和应用场景。RAG已转型为"智能体基础设施",未来竞争焦点是多智能体协同效率、跨模态证据融合与低成本边缘部署,需抓住"Agentic+图谱+轻量化"三条主线。

文章图片
#人工智能#RAG
【收藏级干货】LLM应用开发五层架构图,助你快速成为高薪AI应用架构师!

本文详解了Shalini Goyal绘制的LLM应用五层架构图,从基础设施层到前端用户界面层,系统拆解了AI应用开发的全技术栈。文章介绍了各层的关键技术和工具,包括OpenAI等模型、LangChain等逻辑框架、Pinecone等向量数据库,以及Vercel等部署工具。无论想打造内部效率工具还是面向C端产品,此架构图都能帮助开发者清晰规划LLM应用开发路径,是成为LLM应用架构师的必备指南。

文章图片
#人工智能
面试官狂问的 28 个 RAG 问题全解析:从基础到架构优化,一次讲透!

最近不少霍格沃兹测试开发学社的学员在面试 AI 岗时反馈,RAG(检索增强生成)成了面试的“常客题”。面试官的问题五花八门,从“为什么内容缺失”到“RAG-Fusion 怎么工作”,甚至还要你分析“RAG 与 SFT 的区别”。

文章图片
#架构#语言模型#人工智能 +2
【必学收藏】RAG技术完全指南:让AI助手掌握最新知识的革命性方法

RAG(检索增强生成)是一种创新AI架构,结合大语言模型的生成能力与外部知识库检索功能,解决传统大模型知识滞后和事实虚构问题。其流程包括知识预处理(向量化存储)、检索优化和增强生成三大阶段。RAG技术在数字政府、智能客服、公文写作等领域广泛应用,即使非技术人员也能通过集成RAG的AI工具或浏览器插件享受其便利。"先检索,再生成"的RAG思维模式可应用于研究与写作、专业咨询等场景,提升AI回答的准确

文章图片
#人工智能#RAG
【深度好文】LLM推理优化秘籍:vLLM与SGLang结合使用,让你的AI应用性能提升10倍

文章详解vLLM与SGLang两种推理引擎的融合优势,vLLM通过PagedAttention优化内存管理,SGLang专注时间维度调度,两者结合形成空间与时间双重优化架构,解决LLM推理中的内存瓶颈与延迟问题。文章从架构灵活性、运营可扩展性和生态系统开放性三方面,为企业提供了构建高效、可扩展AI推理基础设施的完整路径,助力实现从实验到生产的平稳过渡。

文章图片
#人工智能
秒懂大模型,一文详解注意力机制优化最先进的几种方式,零基础小白收藏这一篇那就够了!!

在 Transformer 结构中,自注意力机制的计算和存储复杂度与序列长度成平方关系,这导致其在长序列建模时消耗大量的显存和计算资源。因此,如何在保证建模能力的前提下优化注意力机制的时空复杂度、提升计算效率,成为大语言模型的重要研究方向。当前的优化思路主要包括两类:一是通过近似注意力降低计算和内存需求,例如稀疏近似和低秩近似方法;二是结合硬件特性,探索更高效的实现方式。

文章图片
#人工智能
    共 1328 条
  • 1
  • 2
  • 3
  • 133
  • 请选择