logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

图解AI三大核心技术:RAG、大模型、智能体,大模型算法工程师

文章详细介绍了Transformer和混合专家(MoE)两种深度学习架构的差异,包括模型结构、工作原理、性能、计算资源与训练难度以及应用场景。Transformer以其自注意力机制在自然语言处理任务中表现出色,而MoE通过组合多个专家模型处理复杂任务,具有较好的泛化能力。此外,文章还探讨了五种大模型微调技术,如LORA及其变体,以及传统RAG与Agentic RAG的对比,智能体设计模式和文本分块

文章图片
#人工智能#深度学习#RAG
对人工智能毫无了解,看不懂Transformer和BERT论文?别慌!导师亲授破局思路

摘要:针对初学者阅读Transformer和BERT论文的困难,文章建议采取分阶段学习策略:1)先暂停硬啃论文,补充深度学习、NLP和注意力机制等基础知识;2)通过"小白版解读"了解论文整体框架;3)拆分阅读论文,重点看摘要、引言和模型结构图;4)主动提问和讨论。强调建立知识基础比直接阅读更重要,推荐采用"先补基础再拆读,不懂就问"的方法逐步理解核心论文。

文章图片
#人工智能#transformer#bert +2
时代2025 AI百人榜出炉:任正非、梁文锋、王兴兴、彭军、薛澜等入选,华人影响力爆棚

《时代》2025年度AI百人榜揭晓,华人影响力显著提升。华为任正非、DeepSeek梁文锋、宇树科技王兴兴等中国科技领军人物入选,展现了在AI芯片、大模型、机器人等领域的突破。榜单还包含黄仁勋、李飞飞等国际知名华人专家,以及马斯克、Altman等全球AI领袖。值得注意的是,今年更多新晋华人面孔首次登榜,反映出中国在AI领域的快速崛起。完整名单涵盖技术领导者、创新开拓者和思想塑造者等类别,完整名单可

文章图片
#人工智能#深度学习#计算机视觉 +1
比自回归更灵活、比离散扩散更通用,首个纯Discrete Flow Matching多模态巨兽降临

近年来,大型语言模型(LLMs)在多模态任务中取得了显著进展,在人工通用智能(AGI)的两大核心支柱(即理解与生成)方面展现出强大潜力。与传统的自回归方法不同,FUDOKI 通过并行去噪机制实现了高效的双向信息整合,显著提升了模型的复杂推理和生成能力。与离散扩散架构相比,FUDOKI 采用更加通用的概率路径建模框架,从均匀分布出发,允许模型在推理过程中不断更新和修正生成结果,为多模态模型打开了一条

文章图片
#深度学习#人工智能#计算机视觉
微软TimeDP:创新时间序列生成模型,突破跨领域应用局限性

编者按:随着人工智能技术的飞速发展,时间序列数据的应用价值在众多领域崭露头角。然而,现有方法往往难以有效应对不同领域之间的差异性,这在很大程度上限制了其广泛应用。在此背景下,微软亚洲研究院提出了一种创新的时间序列扩散生成模型 TimeDP。该模型通过引入时间序列原型和领域提示,突破了传统方法的局限,实现了高效的跨领域时间序列生成,显著提升了模型的泛化能力和灵活性。人工智能技术的持续演进,让时间序列

文章图片
#机器学习#深度学习#人工智能
机器学习的分类有哪些常见的方式?监督学习、无监督学习

特点:将已学知识迁移到新任务(如用ImageNet预训练模型做医学图像分类)。通过组合不同分类方式,可灵活应对实际问题(如用生成模型做半监督分类)。特点:不假设数据分布,模型复杂度随数据量增长(如KNN、决策树)。特点:结合多个弱模型提升性能(如随机森林、XGBoost)。特点:利用数据自身构造监督信号(如BERT通过掩码预测学习)。特点:用极少量样本训练模型(如Meta-Learning)。特点

文章图片
#机器学习#人工智能#神经网络 +2
2025最新大型推理模型(LRM)强化学习(RL)综述(114页)

这是一篇关于 “大型推理模型(LRM)强化学习(RL)” 的综述,简单说就是告诉大家:怎么用强化学习让大语言模型(比如 ChatGPT、文心一言这类)变得更会 “思考”,能解决数学、编程、医疗这些复杂问题,还梳理了现在的技术、难题和未来方向。

文章图片
#人工智能#语言模型
知识图谱入门:从概念架构到实践应用

知识图谱(Knowledge Graph)是一种用表示现实世界中实体及其关系的知识模型,核心是将离散的信息转化为关联的语义网络,让机器具备 “理解” 世界的能力。资料包:一、 人工智能学习路线及大纲二、计算机视觉OpenCV【视频+书籍】三、AI基础+ 深度学习 + 机器学习 +NLP+ 机器视觉 教程四、李飞飞+吴恩达+李宏毅合集五、自动驾驶+知识图谱等资料六、人工智能电子书合集【西瓜书、花书等

文章图片
#深度学习#人工智能#知识图谱 +1
监督微调SFT vs 强化学习训练RLHF

摘要:本文探讨了大语言模型(LLM)的两种主要训练范式:监督微调(SFT)和强化学习(RL)。SFT通过特定领域数据优化模型输出,适用于机器翻译、情感分析等生成性任务;RL则通过奖励机制引导模型符合人类偏好,适用于评分、排序等任务。文章详细比较了两者的任务定义、适用场景、训练数据和方法,并介绍了PPO、DPO等常用RL算法。这些方法共同构成了从预训练到企业级落地的完整AI模型优化路径。

文章图片
#人工智能#算法#机器学习
彻底搞懂深度学习-强化学习和智能体(动图讲解)

本文探讨了强化学习与智能体的区别及联系。强化学习是一种通过试错和反馈来优化决策的方法论,而智能体则是一个完整的自主系统架构。两者可独立存在,也可结合形成强化学习智能体。随着大语言模型的发展,出现了基于LLM的新型智能体,它以语言为通用接口,主要分为对话式、任务导向型和多智能体协作系统三种模式。传统智能体和LLM智能体各有优势,适用于不同场景:前者适合精确控制和实时反应,后者擅长自然语言交互和快速开

文章图片
#深度学习#人工智能#AI
    共 174 条
  • 1
  • 2
  • 3
  • 18
  • 请选择