logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

可验证奖励强化学习(RLVR):如何让大模型更可靠?

大型语言模型(Large Language Models, LLMs)的发展正在经历一场深刻的范式转变。自GPT系列问世以来,研究者们在预训练阶段投入了大量计算资源,通过扩大模型参数规模和训练数据量来提升模型能力。然而,随着边际收益递减规律的显现,单纯依靠"更大模型+更多数据"的路径已难以持续[1]。近年来,以OpenAI的o1/o3系列和DeepSeek-R1为代表的大型推理模型(Large R

#人工智能#机器学习
人工智能智能体研究综述:从理论架构到前沿应用

AI Agent,即人工智能智能体,是指能够在特定环境中自主感知、推理、决策并执行行动以实现特定目标的智能系统[1]。自主性反应性主动性(Pro-activeness)和社会性fill:#333;important;important;fill:none;color:#333;color:#333;important;fill:none;fill:#333;height:1em;AI Agent核

#人工智能#机器学习#架构
AI 安全前沿:从对抗攻击到大模型越狱与防御

对抗样本的研究始于对深度神经网络决策边界的深入理解。从数学角度而言,对抗样本是指在原始输入样本基础上添加精心设计的微小扰动后形成的新样本,该样本能够被人类正确识别,但却会导致模型产生错误的预测结果。形式化地,设fRn→12KfRn→12...K为一个分类器,x∈Rnx∈Rn为原始输入样本,yfxy = f(x)yfx为其真实标签。对抗样本x′x'x′∥x′−x∥p≤ϵ∥x′−x∥p​≤ϵfx′≠y

#人工智能#安全
多模态大模型在自动驾驶感知中的最新应用与挑战

随着人工智能技术的飞速发展,自动驾驶系统正经历着从传统模块化架构向端到端学习范式的深刻变革。在这场技术革命中,多模态大语言模型(Multimodal Large Language Models, MLLMs)凭借其强大的跨模态理解能力、丰富的知识储备以及卓越的推理能力,正在重塑自动驾驶感知系统的技术格局。传统的自动驾驶感知系统主要依赖于激光雷达、摄像头、毫米波雷达等多种传感器的数据融合,通过精心设

文章图片
#自动驾驶#人工智能#机器学习
2026年春节后,AI大模型格局彻底变了——Claude 4.6、GPT-5.2与六大国产模型全面横评

使用场景推荐模型企业级Agent/自动化(不计成本)企业级Agent/自动化(性价比优先)数学竞赛/极限推理开源自部署(中文生态)最低成本API调用国内政务/教育/搜索集成文心5C端多模态产品豆包 2.0大规模代码仓库维护2026年的AI竞争已经不是单点的能力比拼,而是能力、成本、生态与合规四个维度的综合博弈。Claude Sonnet 4.6的出现,让"旗舰级能力"第一次以中端价格大规模普及;

#人工智能
生成式AI前沿:从扩散模型到流模型的范式转变

生成式AI正在经历从扩散模型到流模型的范式转变。这一转变不仅仅是技术细节的优化,更是对生成模型本质理解的深化。扩散模型基于随机过程,通过逐步去噪来生成样本;流模型基于确定性变换,通过学习最优传输路径来实现生成。两种方法各有优势,在不同的应用场景中发挥着重要作用。Flow Matching的提出是这一范式转变的关键节点。通过实现CNF的无模拟训练,Flow Matching使得流模型真正成为扩散模型

#人工智能
大模型的“幻觉“本质:生成式AI的不确定性原理与认知边界

大模型幻觉的定义在学术界经历了从简单到复杂、从单一到多元的演变过程。早期的定义较为笼统,认为幻觉就是"生成的内容与提供的源内容不符"。但随着研究的深入,研究人员意识到这个定义无法准确捕捉幻觉现象的全部内涵。根据腾讯AI Lab和多家学术机构的综合性调研,大模型幻觉主要呈现三种不同的表现形式。第一类是输入冲突性幻觉(Input-Conflicting Hallucination),指模型生成的回复直

#人工智能#算法
2026年AI视频生成大模型全景指南:国内外主流工具深度对比与选型建议

AI视频生成技术在2025年至2026年间取得了突破性进展,从"能用"进化到"好用",商业化应用加速落地。中美双轨竞争格局基本成型,国内模型在技术追赶和本土化体验方面展现出强劲竞争力。对于用户而言,选择合适的AI视频生成工具需要综合考虑技术性能、使用门槛、成本预算和具体需求。零基础新手推荐海艺AI、通义万相等低门槛工具;进阶创作者可根据需求选择可灵AI、即梦AI、海艺AI等;专业开发者和企业用户可

#人工智能#AI作画#AIGC
预训练目标的统一性框架:从对比学习到生成式建模的理论收敛

预训练(Pretraining)已成为现代深度学习的核心范式,驱动了自然语言处理、计算机视觉和多模态学习的快速发展。从2018年BERT模型的面世到当下大语言模型的爆发式增长,预训练目标的设计经历了从单一范式到多元范式再到趋向统一的演变过程。然而,当前学界面临一个关键问题:虽然对比学习、掩码语言模型(MLM)、自回归语言模型(LM)、以及生成式扩散模型等多种预训练目标在各自的应用领域取得了显著成果

#人工智能#深度学习#机器学习
规模定律的边际递减与后训练时代的理论重构

在人工智能发展的漫长历程中,规模定律(Scaling Laws)无疑是最具影响力的经验性发现之一。自2020年OpenAI发布开创性论文《Scaling Laws for Neural Language Models》以来,整个深度学习社区形成了一种近乎信仰般的共识:更大的模型、更多的数据、更强的算力,必然带来更好的性能。这种信念驱动着GPT系列、Claude系列、Gemini等大型语言模型不断突

#人工智能#算法
    共 50 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 请选择