
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
1、首个真实竞赛级编程测试基准来了!OpenAI的表现竟超过90%的人类选手2、小模型也能"平替"大模型!这个框架让AI在科学领域大显身手。

在人工智能领域,大型语言模型(LLM)正以惊人的速度改变着我们的世界。从文本生成到代码编写,再到各种复杂任务的解决,LLM展现出了巨大的潜力。然而,随着应用场景的不断拓展和任务要求的日益提高,仅仅依靠模型的初始输出已远远不够。如何让AI在生成结果后,能够像人类一样进行自我审视和改进,从而提升输出质量,成为了AI研究者们关注的焦点。而Reflection(反思)模式,正是为了解决这一问题而应运而生的

RAG,全称检索增强生成(Retrieval-Augmented Generation),作为当前AI应用中常见的辅助方法,有效提升了LLM输出的准确性和可靠性。但总有人戏言,RAG不过是“把文档丢进Dify”这么简单,真的吗?关于RAG的技术流程,网上已经有非常多高质量的文章介绍,因此笔者想从RAG的技术发展角度来写这篇文章,从最基本的RAG到当前热门的Graph RAG、Agentic RAG

本文详细回顾了大型语言模型从2017年Transformer架构的出现到2025年DeepSeek-R1的发展历程,涵盖了BERT、GPT系列、多模态模型、推理模型等关键进展,展示了LLMs在规模、性能、成本和多模态能力上的巨大进步,以及对AI领域和社会的深远影响。2025年初,我国推出了一款开创性且高性价比的「大型语言模型」(Large Language Model, LLM) — — Deep

大模型的“思维能力”日益重要,如何让模型在“难”的问题上展开推理、深入思考,而不是事无巨细地“想个不停”?自动化所研究团队的一项新研究,可以。该研究成果集成于,并将用于训练ScienceOne的基座大模型。在大模型快速发展的今天,越来越多的模型开始具备“深度思考能力”。比如,DeepSeek-R1系列模型通过引入特别的提示词结构:先,再,使得模型在回答问题之前先进行“深度思考”,生成一整段包含反复

动作知识由定义的动作集合和控制动作转换的规则组成。这些规则基于动作之间的关系或特定任务的需求,描述了动作转换的逻辑和顺序。不同任务的动作知识被整合成一个动作知识库(Action KB),在动作生成和决策制定中起到关键作用,有助于减少规划幻觉。由于任务中涉及的动作知识非常多样,完全依靠人力手动构建既耗时又费力。为此,我们引入了GPT-4,让人类和模型协作提高构建效率。

已有研究表明,模型参数和数据规模的比例扩展能够持续提升智能水平,但缺乏有效的 RL 方法来实现这一目标。

作者:香港城市大学、中国科学技术大学 许德容今天跟大家分享一篇来自香港城市大学、中国科学技术大学、腾讯优图实验室、北京大学的一篇论文:通过自适应多层次检索增强大模型的知识图谱问答。论文:https://arxiv.org/abs/2412.18537。

传统的提示方法往往依赖于固定的示例集,这限制了模型的潜力发挥。最近,德克萨斯大学达拉斯分校等机构的研究团队提出了一种突破性的自适应提示方法(Adaptive-Prompt),该方法通过动态选择最具信息量的示例来显著提升模型的推理能力。这项研究不仅在理论上具有创新性,更在实践中展现出显著的性能优势,很值得看一看。

随着对高效轻量级检索增强生成(RAG)系统的需求日益增长,现有 RAG 框架在部署小型语言模型(SLMs)时面临重大挑战。由于 SLMs 在语义理解和文本处理能力上的局限,当前方法性能大幅下降,阻碍了其在资源受限场景中的广泛应用。为此,我们推出了 MiniRAG,一种专为极简高效设计的新型 RAG 系统。MiniRAG 带来了两项关键技术突破:(1)语义感知的异构图索引机制,将文本块和命名实体统一








