
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
杨灵:普林斯顿大学 Research Fellow,北京大学博士,研究方向为大语言模型、扩散模型和强化学习。田野:北京大学智能学院博士生,研究方向为扩散模型、统一模型及强化学习。沈科:字节跳动 Seed 大模型团队的 AI 研究员,研究方向为大语言模型预训练和统一学习范式。童云海:北京大学智能学院教授,研究领域涵盖多模态大模型、图像/视频的生成与编辑。
BigModel开放的GLM-4-Flash微调非常简单,仅需3步,无需额外代码开发,无需额外环境配置,即可完成模型微调和部署,体验非常好。选择模型业绩并发数,点击“确认创建”就完成了模型部署了。使用GLM-4-Flash微调和部署自己的专属大模型,省去很多开发和部署的时间,可以空出更多的时间优化业务的数据,提升预训练模型的效果,加速自己的业务产出以获得更高业务回报。从上视频可以看到,API的调用

是一个以 LLM 强大的决策能力为核心的自主迭代检索模型,通过多轮对话的方式建立 LLM 与检索者之间的交互模型,通过迭代推理确定何时检索信息、检索什么内容,在获得足够的外部知识后停止迭代,并将答案提供给用户。。Auto-RAG进行迭代推理,策略性地规划检索,提取相关知识,精确识别信息需求,并为下一次检索细化查询,最终收敛到最终答案。在这个例子中,Auto-RAG在与检索器交互五次后终止,成功得出
图片来源于网络Aravind Srinivas 是人工智能初创公司 Perplexity AI 的首席执行官兼联合创始人。Perplexity AI 致力于打造“世界上最值得信赖的问答引擎”,其核心产品是一款基于大型语言模型的聊天机器人,可以回答用户问题并提供信息来源。Srinivas 拥有加州大学伯克利分校的电气工程和计算机科学硕士学位。完成博士学位后,Srinivas 转入工业界,加入 Goo
Mooncake的核心是其以KVCache为中心的调度器,它在最大化整体有效吞吐量的同时,满足与延迟相关的服务水平目标(SLOs)要求。Mooncake的底层部分是传输引擎(Transfer Engine),它支持通过TCP、RDMA、基于NVIDIA GPUDirect的RDMA以及NVMe over Fabric(NVMe-of)协议进行快速、可靠和灵活的数据传输。未来,计划在传输引擎的基础上

以下是更多的 MOSS-TTSD 生成播客片段,表现出了优秀的零样本音色克隆能力和稳定的长语音生成能力,进一步验证了其在情感表达、语调自然度和整体流畅性上的优异性能。当前的文本到语音(TTS)模型在单句或孤立段落的语音生成效果上取得了令人瞩目的进展,合成语音的自然度、清晰度和表现力都已显著提升,甚至接近真人水平。与传统 TTS 模型只能生成单句语音不同,MOSS-TTSD 能够根据完整的多人对话文
你们都在期待RTX 5090的发布,关注它的规格参数,但你们是否真正理解黄仁勋关于图形技术的说法?令人惊讶的是,RTX 5090 Founders Edition是一款双插槽显卡,能够适配小型机箱,跟RTX 4090的尺寸相比,这是一个巨大的变化。这个「世界模型」必须理解世界的语言,必须理解物理动力学,比如重力、摩擦,必须理解几何和空间关系,理解因果关系,理解物理永恒性......如此豪华的配置,
媒体风向变化太快,让人目不暇接。早上还在夸Deepseek成本低,性价比高,预训练Scaling Law死了,不需要太多机器和GPU卡,性价比优先,英伟达休矣;中午Grok 3一出来,说是用了10万张英伟达H100卡,效果力压OpenAI o3 mini和Deepseek R1,就转向说Scaling law还成立,还需要大量的卡,英伟达股价有救了,还是要大力出奇迹……这两个观点明显对立,有一真必

本文描述了ORM(OutcomeRewardModel)的定义和作用。并基于OpenRLHF源码详细解读了ORM的训练过程。在RM的研发范式中,还有最近比较火热的PRM(ProcessRewardModel)。

他强调,要打造人工智能拔尖人才培养新高地,构筑人工智能科技创新突破策源地,创建智慧变革一体化示范区,为教育强国、科技强国、人才强国建设贡献独具特色的北理工方案。他表示,人工智能学院将整合校内外AI优势资源,汇聚国家级AI顶尖领军人才,布局AI基础、AI技术、AI系统、AI安全、AI应用五大学科方向,围绕 “极微观、极宏观、极极端、极交叉”AI四极发展方向开展科技攻关,建立 AI卓越交叉复合型人才培







