logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

Transformer 模型:Attention is All You Need 的真正含义

2017 年,Google Brain 发布了一篇具有里程碑意义的论文——《Attention Is All You Need》,这篇论文不仅首次提出了 Transformer 模型,更重要的是,它宣称“注意机制(Attention Mechanism)就足以构建强大的模型”,彻底改变了自然语言处理(NLP)领域乃至更广泛的 AI 领域的研究格局。并行计算: 由于 Self-Attention 的

文章图片
#rnn#人工智能#深度学习
Transformer 模型:Attention is All You Need 的真正含义

2017 年,Google Brain 发布了一篇具有里程碑意义的论文——《Attention Is All You Need》,这篇论文不仅首次提出了 Transformer 模型,更重要的是,它宣称“注意机制(Attention Mechanism)就足以构建强大的模型”,彻底改变了自然语言处理(NLP)领域乃至更广泛的 AI 领域的研究格局。并行计算: 由于 Self-Attention 的

文章图片
#rnn#人工智能#深度学习
Transformer 模型:Attention is All You Need 的真正含义

2017 年,Google Brain 发布了一篇具有里程碑意义的论文——《Attention Is All You Need》,这篇论文不仅首次提出了 Transformer 模型,更重要的是,它宣称“注意机制(Attention Mechanism)就足以构建强大的模型”,彻底改变了自然语言处理(NLP)领域乃至更广泛的 AI 领域的研究格局。并行计算: 由于 Self-Attention 的

文章图片
#rnn#人工智能#深度学习
K8s部署大模型:从镜像构建到弹性扩缩容(含代码)

本文将指导您一步步完成大模型在Kubernetes上的部署流程,从镜像构建、模型服务部署,到核心的弹性伸缩,并提供关键的代码示例。Kubernetes (K8s),作为容器编排的事实标准,凭借其强大的自动化管理能力、资源调度能力和弹性伸缩能力,成为了部署大模型的理想平台。但这会增加配置复杂度。生态系统成熟: K8s拥有丰富的生态工具和组件,如Istio(流量管理)、Prometheus/Grafa

文章图片
#java#开发语言
到底了