
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
OpenAI即将推出GPT-5.2(内部代号Garlic)狙击谷歌Gemini 3,首战场选在Cursor IDE。该模型在编程和逻辑推理上已超越Gemini 3,能执行更长任务并理解整个代码库架构。为应对谷歌竞争,OpenAI甚至可能暂缓AGI目标,集中资源于文本/推理模型。与此同时,谷歌也面临算力困境,大幅削减了Gemini API免费配额以支持新模型。两大AI巨头在编程领域的激战即将上演,开

2023年年尾,华为与各大应用厂商密集签约,使得鸿蒙操作系统再次引发关注,华为已经与包括游戏、社交通讯、出行导航、商务办公、旅游住宿等在内的18个领域的开发者及伙伴展开鸿蒙原生应用全面合作。到目前为止,鸿蒙生态的设备数量已经超过7亿,超400家企业已启动鸿蒙原生应用开发。

1、首个真实竞赛级编程测试基准来了!OpenAI的表现竟超过90%的人类选手2、小模型也能"平替"大模型!这个框架让AI在科学领域大显身手。

在人工智能领域,大型语言模型(LLM)正以惊人的速度改变着我们的世界。从文本生成到代码编写,再到各种复杂任务的解决,LLM展现出了巨大的潜力。然而,随着应用场景的不断拓展和任务要求的日益提高,仅仅依靠模型的初始输出已远远不够。如何让AI在生成结果后,能够像人类一样进行自我审视和改进,从而提升输出质量,成为了AI研究者们关注的焦点。而Reflection(反思)模式,正是为了解决这一问题而应运而生的

RAG,全称检索增强生成(Retrieval-Augmented Generation),作为当前AI应用中常见的辅助方法,有效提升了LLM输出的准确性和可靠性。但总有人戏言,RAG不过是“把文档丢进Dify”这么简单,真的吗?关于RAG的技术流程,网上已经有非常多高质量的文章介绍,因此笔者想从RAG的技术发展角度来写这篇文章,从最基本的RAG到当前热门的Graph RAG、Agentic RAG

本文详细回顾了大型语言模型从2017年Transformer架构的出现到2025年DeepSeek-R1的发展历程,涵盖了BERT、GPT系列、多模态模型、推理模型等关键进展,展示了LLMs在规模、性能、成本和多模态能力上的巨大进步,以及对AI领域和社会的深远影响。2025年初,我国推出了一款开创性且高性价比的「大型语言模型」(Large Language Model, LLM) — — Deep

大模型的“思维能力”日益重要,如何让模型在“难”的问题上展开推理、深入思考,而不是事无巨细地“想个不停”?自动化所研究团队的一项新研究,可以。该研究成果集成于,并将用于训练ScienceOne的基座大模型。在大模型快速发展的今天,越来越多的模型开始具备“深度思考能力”。比如,DeepSeek-R1系列模型通过引入特别的提示词结构:先,再,使得模型在回答问题之前先进行“深度思考”,生成一整段包含反复

动作知识由定义的动作集合和控制动作转换的规则组成。这些规则基于动作之间的关系或特定任务的需求,描述了动作转换的逻辑和顺序。不同任务的动作知识被整合成一个动作知识库(Action KB),在动作生成和决策制定中起到关键作用,有助于减少规划幻觉。由于任务中涉及的动作知识非常多样,完全依靠人力手动构建既耗时又费力。为此,我们引入了GPT-4,让人类和模型协作提高构建效率。

已有研究表明,模型参数和数据规模的比例扩展能够持续提升智能水平,但缺乏有效的 RL 方法来实现这一目标。

作者:香港城市大学、中国科学技术大学 许德容今天跟大家分享一篇来自香港城市大学、中国科学技术大学、腾讯优图实验室、北京大学的一篇论文:通过自适应多层次检索增强大模型的知识图谱问答。论文:https://arxiv.org/abs/2412.18537。








