logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

五年磨一剑,华为仓颉编程语言正式发布|附入门教程

华为在 2024 年 6 月 21 日的华为开发者大会上,华为终端 BG 软件部总裁龚体正式官宣了华为自研仓颉编程语言,并发布了 HarmonyOS NEXT 仓颉语言开发者预览版。仓颉编程语言的发布,标志着其正式融入鸿蒙生态,为开发者提供了一个全新的编程平台。《荀子・解蔽》称:“好书者众矣,而仓颉独传者壹也”,该名字也是代表了团队成员对于仓颉编程语言的寄托,希望该语言能够被广大开发者喜爱,并且广

文章图片
#华为
华为1.5B盘古大模型横空出世...

如下图所示,词表表现出长尾效应,其中前 48k 词汇就占据训练语料库的 97.86%,也就是说超过 50% 的词汇可能是多余的,因为它们只满足不到 3% 的语料库。对于 LLaMA2-7B、LLaMA2-13B、InternLM-7B 和 PanGu-π-7B 等多个大模型,作者跳过了一些层,来观察跳过后模型效果的变化。模型架构的配置,例如宽度、深度和扩展率,对小语言模型的最终性能有相当大的影响。

#人工智能#深度学习
华为最新大模型来了!盘古3.0问世,千亿参数规模3万亿tokens,放话「不作诗只做事」

华为在最底层构建了以鲲鹏和昇腾为基础的AI算力云平台,以及异构计算架构CANN、全场景AI框架昇思MindSpore,AI开发生产线ModelArts等,能为大模型开发和运行提供分布式并行加速,算子和编译优化、集群级通信优化等关键能力。在L0和L1大模型的基础上,华为云还提供了大模型行业开发套件,通过对自有数据二次训练,就可以拥有自己的专属行业大模型。同时,根据客户不同的数据安全与合规诉求,盘古大

文章图片
#华为#人工智能
同济校长郑庆华院士:大模型的四大缺陷

以GPT4求解算术运算题的实例为例,对于在1381和1453之间选两个随机数相乘的结果给出了错误答案,被指出错误后,无法定位是语料,还是训练等原因,更无从修正。在问题求解阶段,无法记住处理过的数据或场景,比如在无人驾驶中,人脑对路况有记忆,但自动驾驶每次都要重新计算,并为此消耗了大量能量。郑庆华认为,大模型已经成为当前人工智能的巅峰,大模型之所以强,是依托了大数据、大算力和强算法,但是也面临着若干

文章图片
#人工智能#机器学习
英伟达新核弹B200发布,一台服务器顶一个超算,万亿参数大模型30倍推理加速

要论在整个AI界的影响力、号召力,在这一刻,无论是“钢铁侠”马斯克还是“奥特曼”Sam Altman,恐怕都比不过眼前这位“皮衣客”黄仁勋。以及布局下一轮计算变革的前沿领域,英伟达推出云量子计算机模拟微服务,让全球科学家都能充分利用量子计算的力量,将自己的想法变成现。4nm制程达到瓶颈,就把两个芯片合在一起,以10TB每秒的满血带宽互联,组成B200 GPU,总计包含2080亿晶体管。在标准的17

文章图片
#服务器#运维
微软将中国AI团队集体打包去美国,涉及数百人

本月初,微软董事长兼 CEO 萨蒂亚·纳德拉 (Satya Nadella) 宣布,微软未来四年将向马来西亚投资22亿美元,建设云计算和 AI 算力基础设施(数据中心),并为20万人提供AI技能培训。昨天许多网友在脉脉发布动态称,微软公司发送邮件通知将中国区 Azure 人工智能团队的几个组集体打包去美国和澳大利亚。在此之前,微软的东南亚数据中心基本都建立在新加坡。钛媒体在报道中表示:“相对于微软

文章图片
#microsoft#人工智能
Sergey Levine-伯克利-深度强化学习2020

课程介绍本课程主要讲解深度强化学习相关的基础知识,基础模型;还设计迁移学习、多任务学习和元学习。bjhq:Sergey Levine-伯克利《深度强化学习2020》课程视频及ppt分享课程主页http://rail.eecs.berkeley.edu/deeprlcourse/课程大纲课程主讲人课程视频截图bkhq:Sergey Levine-伯克利《深度强化学习2020》课程视频及ppt分享..

文章图片
超10秒高分辨率,北大Open Sora视频生成更强了,还支持华为芯片

现在这个项目终于有了新成果,Open-Sora-Plan v1.0.0 来了,新研究显著增强了视频生成的质量以及对文本的控制能力。OpenAI 在今年年初扔出一项重大研究,Sora 将视频生成带入一个新的高度,很多人表示,现在的 OpenAI 一出手就是王炸。然而,众多周知的是,OpenAI 一向并不 Open,关于 Sora 的更多细节我们无从得知。今年 3 月初,北大团队联合兔展启动了 Sor

#人工智能#深度学习
为什么说大模型训练很难?聊聊预训练的一些经验

作者:罗小黑,主要做NLP声明:本文只做分享,版权归原作者,侵权私信删除!原文:https://www.zhihu.com/question/498271491自从Bert网络模型产数量超过3亿规模,当时候只是觉得性能好,没想到GPT系列出来后,GPT-3直接用170B规模的参数量模型精度碾压竞品。

#神经网络#人工智能#自然语言处理
最新最全-中文生物医学命名实体识别最新研究论文、资源、数据集、性能整理分享

目前现存公开的中文电子病历标注数据十分稀缺,为了推动CNER系统在中文临床文本上的表现,中国知识图谱与语义计算大会(China Conference on Knowledge Graph and Semantic Computing, CCKS)在近几年都组织了面向中文电子病历的命名实体识别评测任务,下面我们主要关注CCKS CNER数据集上的结果。2.中文电子病历的命名实体识别研究进展. 杨飞洪

文章图片
#transformer#leetcode#计算机视觉
    共 204 条
  • 1
  • 2
  • 3
  • 21
  • 请选择