logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

AMiner Research Labs 开放内测:把GLM全家桶变成国产NotebookLM

智谱旗下学术平台AMiner构建了一个更方便、更适合全流程各领域学习者的AI笔记与研究助手——「AMiner Research Labs」,恰好可以将AMiner的「学术空间」、「智能学术检索」、「AMiner沉思」、海量科研数据库与GLM多模态能力连接为一个深度研究工作台。

文章图片
#nlp#自然语言处理
阿里Qwen团队发布全新的过程奖励模型PRM,并且开源

大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。

文章图片
#语言模型#人工智能#自然语言处理 +1
上交大团队发布更精准的Less is More,删减84%数据反提升效果

大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。

文章图片
#生成对抗网络#人工智能#神经网络 +1
中科大联合北邮发布 Live Avatar:开启实时直播新纪元!

无限时长不脸崩!北邮重新定义数字人直播新范式!

文章图片
#人工智能
突破Transformer困局!中科院打造新一代类脑脉冲大模型,提升百倍训练效率!

中科院自动化所与沐曦MetaX联合发布全球首款类脑脉冲大模型"瞬息1.0"(SpikingBrain),创新性地采用内生复杂性理论,在国产GPU平台上实现全流程训练和推理。该模型突破传统Transformer架构局限,通过混合线性架构、高效模型转换和自适应阈值脉冲三大创新,将计算能耗降低97.7%。在沐曦MetaX曦云C550集群上训练的参数模型性能与主流开源模型相当,长序列处

文章图片
#transformer#深度学习#人工智能
警惕!你和ChatGPT的对话,可能正在制造分布式妄想

分布式妄想并非仅存在于精神疾病的案例中,普通人也有可能陷入与AI共构的幻觉。比如,一个对社会怀有不满的人可能会在人工智能伴侣身上找到完美的知己;一个确信政治选举被盗的人可能会使用人工智能聊天机器人来制定关于欺诈如何发生、谁负责以及哪些行动可以做出回应的详细理论。这些并不是简单的AI幻觉可以解释的,而是人机之间的互动对现实的扭曲。作者警示我们,AI早已不是外部工具,而是认知生态的参与者。当我们依赖它

文章图片
#分布式#人工智能#算法
简单、高效!REINFORCE++,比PPO快,比GRPO稳

大模型(LLM)是一种人工智能模型,旨在理解和生成人类语言。它们在大量的文本数据上进行训练,可以执行广泛的任务,包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大,包含数十亿的参数,帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构,如转化器,这有助于它们在各种NLP任务上取得令人印象深刻的表现。

文章图片
#算法#语言模型#人工智能 +2
NVIDIA发布OmniVinci:破模态难题,全模态AI落地

NVIDIA推出全模态大模型OmniVinci,通过创新架构解决多模态割裂问题。该模型采用OmniAlignNet实现跨模态语义对齐、TEG模块处理长时间序列信息、CRTE编码精准标记时间戳,在仅需0.2TB训练数据(传统模型需1.2TB)的情况下,DailyOmni基准测试提升19.05%。实验显示,其在视频理解、音频识别等任务中表现优异,推理速度提升1.7倍,已成功应用于医疗影像和工业检测领域

文章图片
#transformer
NeurIPS 华南理工用物理规律 “拆穿” Sora2,让AI视频真假现原形

Sora2生成的视频真假难辨?华南理工团队提出物理驱动鉴伪术:不找"穿帮"找"违章",通过时空一致性检测AI视频,在Sora等闭源模型上准确率超传统方法16%。

文章图片
#人工智能#算法#AIGC
一文通关天文物理顶刊

聚焦天文物理,解锁选刊神器,深度解析顶刊!

文章图片
#python
    共 138 条
  • 1
  • 2
  • 3
  • 14
  • 请选择