logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

51c大模型~合集133

来自上海人工智能实验室团队的最新成果 Linear-MoE,首次系统性地实现了线性序列建模与 MoE 的高效结合,并开源了完整的技术框架,包括 Modeling 和 Training 两大部分,并支持层间混合架构。Linear-MoE 的核心贡献在于构建了一个从 Modeling 到 Training 的完整系统,支持线性序列建模层与 MoE 层的灵活组合,同时兼容传统的 Softmax Atte

#人工智能
51c大模型~合集56

原文:https://www.zhihu.com/question/650979052/answer/3501160453最近看到知乎一个回答,把千卡训练的难度吹上天了。但其实真正用过千卡就会发现也就那么几个点。于是想写一篇文章简单讲讲。本文将包括3个部分:首先我们将讨论千卡训练的难题,以及应该在什么时候使用千卡训练;接着,我们将讨论如何在一千张卡上开始训练,如何让他达到近乎线性的性能提升;最后我

#人工智能
w~大模型~合集14

为了解决上述问题,作者提出了一种基于注意力的高效模块,它能够利用 GPU 并行性,同时又能高效更新。首先,作者在第 3.1 节中表明,注意力可被视为一种 RNN,具有高效计算多对一 RNN(图 1a)输出的特殊能力。利用注意力的 RNN 形式,作者进一步说明,基于注意力的流行模型,如 Transformer(图 1b)和 Perceiver(图 1c),可以被视为 RNN。

#人工智能
51c视觉~OCR~合集1

Surya 是多语言文档 OCR 工具包,可进行准确的文本行检测,目前支持 90 多种语言,以及即将推出表格和图表检测功能。开源地址:https://github.com/VikParuchuri/surya。

#人工智能
51c大模型~合集176

在记忆调度与管理层,MemOS 提出了记忆调度的全新范式,支持基于上下文的 「下一场景预测」,可以在模型生成时提前加载潜在需要的记忆片段,显著降低响应延迟、提升推理效率。另外,我们也看到了一批关注 AI 记忆的创业公司的诞生,包括提出了 MemGPT 的 Letta AI、提出了 AI 的记忆操作系统 MemOS 的记忆张量(上海)科技有限公司以及我们前段时间报道过的提出了拥有一定的原生记忆能力的

#人工智能
51c视觉~合集20

针对这个问题一直以来,也有非常多的工作在探索加速扩散模型的方法。RePaint: Inpainting using Denoising Diffusion Probabilistic Models 主要是针对图像修复(image inpainting)任务而提出的,它的做法其实与 SDEdit 的 editing with mask(如前面的 Algorithm 3)相似,输入除了参考图像以外还有

#人工智能
51c大模型~合集72

我自己的原文哦~https://blog.51cto.com/whaosoft/12286727实现跨模态指令跟随本开源项目由北京大学对齐小组开发并进行长期维护,团队专注于人工智能系统的安全交互与价值对齐,指导老师为北京大学人工智能研究院杨耀东助理教授。核心成员包括吉嘉铭、周嘉懿、邱天异、陈博远、王恺乐、洪东海、楼翰涛、王旭尧、陈文琦、张钊为、汪明志、钟伊凡等。团队就强化学习方法及大模型的后训练对

#人工智能
51c大模型~合集32

如图 3 所示,VITA 的整体训练流程包括三个阶段:LLM 指令微调、多模态对齐和多模态指令微调。

#人工智能
w~大模型~合集29

RTFS-Net的整体网络架构如下图1所示:图 1. RTFS-Net 的网络框架其中,RTFS 块(如图 2 所示)对声学维度(时间和频率)进行压缩和独立建模,在创建低复杂度子空间的同时尽量减少信息丢失。具体来说,RTFS 块采用了一种双路径架构,用于在时间和频率两个维度上对音频信号进行有效处理。通过这种方法,RTFS 块能够在减少计算复杂度的同时,保持对音频信号的高度敏感性和准确性。下面是 R

#人工智能
51c大模型~合集57

我自己的原文哦~https://blog.51cto.com/whaosoft143/12064464o1带火的CoT到底行不行?新论文引发了论战OpenAI ο1 的诞生极大地提升了人们对 LLM 推理能力和思维链(CoT)的兴趣。一时之间,似乎思维链很快就会成为所有 LLM 的标配,但思维链并非万能,就连 OpenAI 自己也提到 o1 在某些任务上的表现并不比 GPT-4o 强,尤其是以语言

#人工智能
    共 408 条
  • 1
  • 2
  • 3
  • 41
  • 请选择