logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

一篇小型语言模型技术最新全面综述

模型规格:提供了一些代表性的通用领域SLMs的详细信息,包括参数数量、发布日期、许可证、用途、语言支持、架构、层数、隐藏层大小、注意力头数、激活函数、架构技术、分词器、上下文长度和词汇表大小等。知识蒸馏(Knowledge Distillation):通过训练一个小型的“学生”模型来模仿一个大型的“教师”模型的输出,从而在小型模型中保留大型模型的知识。预训练范式:从BERT的预训练和微调范式,到T

文章图片
#语言模型#人工智能#自然语言处理
帮大模型提速80%,华为拿出昇腾推理杀手锏FlashComm,三招搞定通算瓶颈

针对 DeepSeek 这类超大规模 MoE 模型的多机多卡推理场景中的通信挑战,华为团队提出了三项关键技术,其中 FlashComm 技术基于相同的集合通信逻辑替大模型推理中的 AllReduce 通信算子,在不改变网络并行方式的前提下,充分利用网络中低维度数据或低比特数据特性进行通信算子位置的编排,实现通信数据量的降低和通信时延的优化,同时消除了计算流程中的冗余计算,进一步提升了网络端到端推理

#华为#服务器#运维
知名开源项目阿里官宣停更,太痛了

在2016年,我作为开发者参与了一个电商后台系统的搭建,这个系统需要处理大量的业务数据,经常涉及到Excel文件的批量导入和导出。然而,随着数据量的激增,Apache POI在Excel处理方面的局限性开始显现出来,尤其是它的内存占用过高,导致系统频繁出现内存溢出。据了解,EasyExcel作者玉箫去年已经从阿里离职,开始创业,也是开源数据库客户端 Chat2DB 的作者,今天他宣布启动EasyE

文章图片
#开源
重磅开源!首个全异步强化学习训练系统来了,SOTA推理大模型RL训练提速2.77倍

由于推理模型的输出长短差异极大,在同样的批大小(batch size)下,RL 训练必须等待批次中最长的输出生成完才能继续进行训练,以及进行下一个批次的数据收集,造成极大 GPU 资源浪费。staleness 表示当采用一个批次的数据进行模型训练时,生成最旧的一条数据的模型版本和当前更新的模型版本之间的版本差(比如,一个批次中最旧的一条数据由 step 1 产生的模型输出,当前模型由 step 5

#开源
张俊林:Grok 3是否意味着大力出奇迹的大模型法则仍然成立?

媒体风向变化太快,让人目不暇接。早上还在夸Deepseek成本低,性价比高,预训练Scaling Law死了,不需要太多机器和GPU卡,性价比优先,英伟达休矣;中午Grok 3一出来,说是用了10万张英伟达H100卡,效果力压OpenAI o3 mini和Deepseek R1,就转向说Scaling law还成立,还需要大量的卡,英伟达股价有救了,还是要大力出奇迹……这两个观点明显对立,有一真必

文章图片
#人工智能
OpenAI o3达到了 AGI 的门槛,甚至摸到了 ASI(超级人工智能)?

但如果我从知识库里找到相关的背景知识告诉 o1-preview,在它第一步输出之后指出它的问题,让它继续改进,只要 5 轮对话,半个小时(包括输入 prompt 的时间),o1-preview 就能列公式计算,得到跟我想了一晚上一样的结论。合伙人的作用并不简单是帮忙分担工作,更重要的是提供不同的思考角度,能在悲观绝望的时候拉一把,能在得意自满的时候浇一盆冷水,能在分心的时候催一催进展,能在技术行不

文章图片
#人工智能
985,成立人工智能学院

他强调,要打造人工智能拔尖人才培养新高地,构筑人工智能科技创新突破策源地,创建智慧变革一体化示范区,为教育强国、科技强国、人才强国建设贡献独具特色的北理工方案。他表示,人工智能学院将整合校内外AI优势资源,汇聚国家级AI顶尖领军人才,布局AI基础、AI技术、AI系统、AI安全、AI应用五大学科方向,围绕 “极微观、极宏观、极极端、极交叉”AI四极发展方向开展科技攻关,建立 AI卓越交叉复合型人才培

#人工智能#百度
首篇多模态 RAG 全栈技术综述出炉~

跨模态对齐和推理为 Multimodal RAG:多模态RAG提出了一个多模态RAG系统的通用框架;并对多模态RAG系统进行了系统且全面的分析,涵盖了数据集、评估指标、基准测试、评估方法以及检索、融合、增强和生成方面的创新多模态RAG系统进行了系统且全面的分析:数据集、评估指标、基准测试、评估方法以及检索、融合、增强和生成方面的创新。

文章图片
#人工智能#深度学习#算法
零成本、无编程,GLM-4-Flash免费API发布,算法工程师嗨翻了!!!

BigModel开放的GLM-4-Flash微调非常简单,仅需3步,无需额外代码开发,无需额外环境配置,即可完成模型微调和部署,体验非常好。选择模型业绩并发数,点击“确认创建”就完成了模型部署了。使用GLM-4-Flash微调和部署自己的专属大模型,省去很多开发和部署的时间,可以空出更多的时间优化业务的数据,提升预训练模型的效果,加速自己的业务产出以获得更高业务回报。从上视频可以看到,API的调用

文章图片
#算法#人工智能#自然语言处理
邱锡鹏团队开源MOSS-TTSD!百万小时音频训练,突破AI播客恐怖谷

以下是更多的 MOSS-TTSD 生成播客片段,表现出了优秀的零样本音色克隆能力和稳定的长语音生成能力,进一步验证了其在情感表达、语调自然度和整体流畅性上的优异性能。当前的文本到语音(TTS)模型在单句或孤立段落的语音生成效果上取得了令人瞩目的进展,合成语音的自然度、清晰度和表现力都已显著提升,甚至接近真人水平。与传统 TTS 模型只能生成单句语音不同,MOSS-TTSD 能够根据完整的多人对话文

#音视频#人工智能
    共 210 条
  • 1
  • 2
  • 3
  • 21
  • 请选择