logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

企业AI落地,90%都卡在这一步!Agent“破局”之道:我的3大避坑指南与实战心得!

最近与客户、同学、朋友谈到智能化转型时,我们发现大家都知道大模型,但对于如何落地心存疑惑。 很多企业部署了大模型API,但不知道如何与现有业务结合,投入资金做概念验证,却无法规模化——这是智能化转型中常见的“最后一公里”困境。如果把大模型比作强大的“发动机”,那么真正能把车开进业务场景、创造价值的,则是“AI Agent”——装上方向盘的“智能汽车”。认清智能体的真实能力,把它们放在合适的位置,是

#人工智能#职场和发展#transformer +1
华为云三步走战略:性能解放→形态解放→智能创造,一文读懂AI Agent落地实践!建议收藏

华为云推出CloudDevice云终端和Versatile智能体平台,构建了AI三层价值:性能解放、形态解放和智能创造。Versatile作为一站式企业级平台,实现Agent分钟级开发,降低技术门槛;CloudDevice提供标准化执行环境,解决AI落地"最后一公里"问题。两者协同赋能千行百业,实现从功能到智能的历史性转变,开启企业级AI应用新篇章。

文章图片
#华为云#人工智能#学习 +3
大模型开发 | Anthropic 首次公开多智能体架构构建全流程

在构建 AI 智能体的过程中,最后一公里往往成为最为艰难的阶段。开发者本地能够运行的代码,距离成为可靠的生产系统还需要大量工程化努力。在 AI 智能体系统中,错误具有复合特性,这意味着对于传统软件而言的轻微问题,可能会导致 AI 智能体完全崩溃。只要某一步失败,AI 智能体就可能走向完全不同的路径,进而产生不可预测的结果。正如本文所述,从原型到生产环境之间的鸿沟,往往比人们预期的更为宽广。尽管存在

文章图片
大模型推理机制 | 大型语言模型(LLM)到底是怎么“思考”你的问题?

现在你知道了,AI不是魔法,而是一套精密的推理机制:它像一个认真思考的学生,每次都要“从头再读一遍”,才能生成合乎逻辑的新答案。你也明白了,Token不是一个虚无缥缈的单位,而是影响速度、成本、效果的关键所在。更重要的是——

文章图片
#人工智能#自然语言处理
大语言模型(LLM)| 一文解析AI 智能体长期记忆系统架构设计

Mem0 和 Mem0-g 通过动态提取信息、智能更新和高效检索,为解决大语言模型(LLM)的长期记忆问题提供了一个强大且实用的解决方案。它们成功地在推理精度、响应速度和部署成本之间取得了理想的平衡。

文章图片
#人工智能#语言模型#自然语言处理
PyTorch介绍与应用:轻松上手深度学习框架

PyTorch是一个灵活、高效、易上手的深度学习框架,由Facebook开源,它广泛用于计算机视觉、自然语言处理等领域。PyTorch的基本功能涵盖了构建和训练神经网络的所有操作,如张量、自动微分(Autograd)、神经网络模块、数据集、优化器、GPU支持。除此之外,PyTorch还有丰富的库支持,比如Torchvision(用于图像处理)和Torchtext(用于文本处理),这些库可以帮助我们

文章图片
#深度学习#pytorch#人工智能 +1
大模型面试 | 大模型训练全流程详解,从数据准备到对齐,收藏这篇就够了!

一分钟高质量回答模板:“从零训练一个大模型,可以分为三步:第一阶段是数据准备,包含数据收集、清洗、分词和配比,是模型能力的上限;第二阶段是预训练,目标是学习语言与世界知识,关键在任务设计与分布式训练;第三阶段是后训练,也就是对齐,包括SFT和RLHF,让模型从‘会说话’到‘懂人话’;过程中还要考虑缩放定律、过拟合与梯度稳定性问题,这些都会影响模型最终性能。这样的回答,既系统又有实操味,面试官听完基

文章图片
#面试#深度学习#职场和发展 +1
深度学习中的注意力机制革命:MHA、MQA、GQA至DeepSeek MLA的演变

从MHA到MQA、GQA,再到MLA,注意力机制的演变展示了在效率与性能之间不断优化的轨迹。MLA通过创新的KV缓存压缩和恢复机制,实现了在资源消耗、推理速度和模型性能之间的最佳平衡,为大语言模型的高效部署和应用提供了新的可能性。

文章图片
#深度学习#人工智能#自然语言处理
一文详解LLMs后训练技术(二)对齐:基于人类反馈的强化学习、基于AI反馈的强化学习、直接偏好优化

基于人类反馈的强化学习(Reinforcement Learning from Human Feedback, RLHF)使用人工标注的数据作为奖励信号来学习。跟SFT不同的是,SFT中标注数据的多样性和质量可能参差不齐,且监督模型捕捉更细微或适应性更强的人类偏好的能力比较有限,因此RLHF可以弥补这一点。RLHF首先收集以偏好标签或奖励信号形式的人类反馈,然后利用这些信息训练奖励模型。在奖励模型

文章图片
#人工智能#AI
几行代码构建AI智能体:Strands Agents模型驱动开发实战

使用@tool装饰器快速创建工具,智能体通过函数文档字符串理解工具用途。fromimport@tooldefword_counttext: strint"""统计文本中的单词数。"""returnlen"这个句子有多少个单词?

#人工智能#架构#科技 +1
    共 1468 条
  • 1
  • 2
  • 3
  • 147
  • 请选择