logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

大数据人工智能相关课程培训,人工智能培训及咨询,合作抠抠526346584

人工智能之ChatGPT专题|ChatGPT 算法原理

抛开需要大量语料数据训练模型不说,在目前,ChatGPT在应用时仍然需要大算力的服务器支持,而这些服务器的成本是普通用户无法承受的,即便数十亿个参数的模型也需要惊人数量的计算资源才能运行和训练。如果对于新知识采取在线训练的模式,看上去可行且语料成本相对较低,但是很容易由于新数据的引入而导致对原有知识的灾难性遗忘的问题。从数学或从机器学习的角度来看,语言模型是对词语序列的概率相关性分布的建模,即利用

文章图片
#人工智能#算法
大模型“云上经济”之权力游戏

但总体来说,阿里处于全球领先的大模型研发梯队,具备语言大模型、多模态大模型、大模型底层训练平台的完整布局。应当承认,OpenAI已是全球大模型的引领者,ChatGPT是非常优秀的模式,GPT-4在推理、数学等方面有了非常不错的表现,是当前通义千问尚不能及的。动辄超千亿参数的大模型研发,不是单一的算法问题,也不是靠堆积GPU实现,这是系统性工程,包括底层算力、网络、存储、大数据、AI框架、AI模型等

文章图片
#游戏#人工智能#AIGC +1
人工智能讲师叶梓:大模型强化学习训练框架EasyR1 训练流程详解

本文详细介绍了EasyR1训练框架的执行流程,包含启动、初始化、Rollout、奖励计算、更新及验证保存等关键阶段。框架通过Ray分布式系统实现并行处理,采用vLLM生成响应,结合PPO算法进行模型优化。具体包括:1)命令行参数解析和Ray初始化;2)分词器、数据加载器、Worker组和奖励管理器的创建;3)vLLM生成响应序列;4)多阶段奖励和价值计算;5)基于FSDP的梯度更新;6)周期性验证

文章图片
#人工智能#算法#DeepSeek
人工智能讲师叶梓:大模型强化学习训练框架EasyR1 训练流程详解

本文详细介绍了EasyR1训练框架的执行流程,包含启动、初始化、Rollout、奖励计算、更新及验证保存等关键阶段。框架通过Ray分布式系统实现并行处理,采用vLLM生成响应,结合PPO算法进行模型优化。具体包括:1)命令行参数解析和Ray初始化;2)分词器、数据加载器、Worker组和奖励管理器的创建;3)vLLM生成响应序列;4)多阶段奖励和价值计算;5)基于FSDP的梯度更新;6)周期性验证

文章图片
#人工智能#算法#DeepSeek
Fast-WAM:重构 WAMs 的效率与性能平衡

清华大学团队提出Fast-WAM方法,创新性地解决了世界动作模型(WAMs)在实时控制中的两大难题。该方法通过保留训练阶段的视频建模但移除推理时的显式未来生成,在保持性能的同时将延迟降至190ms,比传统方案提速4倍以上。

文章图片
#重构#人工智能
120B 数学语料 + GRPO 算法,DeepSeekMath 刷新开源大模型推理天花板

摘要:DeepSeekMath大模型通过创新方法显著提升了开源模型的数学推理能力。研究团队从CommonCrawl挖掘出120B tokens的数学内容构建DeepSeekMathCorpus数据集,其性能远超现有数据集。模型采用代码预训练初始化,结合新型GRPO强化学习算法(省去价值模型,降低训练成本),在多个数学基准测试中表现优异:7B参数的DeepSeekMath在MATH基准达到36.2%

文章图片
#算法#人工智能#DeepSeek
英伟达入局OpenClaw改写智能体产业格局

2026年英伟达GTC大会聚焦OpenClaw开源项目,黄仁勋称其为"AI下一个前沿"。英伟达推出NemoClaw工具链和VeraRubin算力平台,解决OpenClaw高算力需求和安全问题,推动其从极客项目向企业级应用转型。这一布局使英伟达掌握智能体时代话语权,股价应声上涨1.65%。分析指出,未来智能体产业将围绕开源生态、算力支撑和安全标准展开,同时面临商业与开源平衡等挑战

文章图片
#人工智能
AI拐点已定:2026年,参数竞赛凉了,“能干活”才是王炸

如果说巨头的战略转向是行业的“风向标”,那么2026年初横空出世的OpenClaw(开源跨平台轻量级智能体工作流框架),则用现象级热度,直接定义了“能干活的AI”该有的样子,也为行业转向提供了最直观的落地参考。与传统聊天机器人(Chatbot)仅能实现文本生成、问答交互的“被动响应”不同,OpenClaw作为一款AI智能体(Agent),其核心突破在于实现了“理解指令→自主规划→调用工具→执行任务

文章图片
#人工智能#自然语言处理
120B 数学语料 + GRPO 算法,DeepSeekMath 刷新开源大模型推理天花板

摘要:DeepSeekMath大模型通过创新方法显著提升了开源模型的数学推理能力。研究团队从CommonCrawl挖掘出120B tokens的数学内容构建DeepSeekMathCorpus数据集,其性能远超现有数据集。模型采用代码预训练初始化,结合新型GRPO强化学习算法(省去价值模型,降低训练成本),在多个数学基准测试中表现优异:7B参数的DeepSeekMath在MATH基准达到36.2%

#算法#人工智能#DeepSeek
FaithLens:8B 参数大模型幻觉检测器,性能超 GPT-4.1 且低成本可解释

摘要:清华大学、复旦大学等机构提出FaithLens模型,解决大模型生成内容中的"忠诚度幻觉"问题。该模型通过高质量数据训练和强化学习优化,在检测幻觉的同时提供清晰解释,支持摘要、RAG等多种任务。实验表明,8B参数的FaithLens在跨任务场景中表现优于GPT-4等大模型,解释质量得分90.4,推理成本仅0.1美元/1.2K样本,数据利用率高。消融实验验证了数据过滤和强化学

文章图片
    共 518 条
  • 1
  • 2
  • 3
  • 52
  • 请选择