logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

深度学习进阶(一)从注意力到自注意力

在之前的深度学习内容中,我们已经介绍了注意力机制的核心流程,其本质可以概括为:在解码的每一个时间步增加注意力计算得到上下文向量,让模型可以根据当前状态,从输入序列中动态选择相关信息。实际上,你会发现:在这个传播过程中,传统的注意力机制只是一个插件。在这个机器翻译的例子里,模型的主干仍然是 RNN,如果在解码的每一步去除了注意力计算,那么整个模型就是一个常见的不等长循环神经网络。而注意力计算的实质,

#深度学习#人工智能
人类大脑进化史:从生存机器到自由意志,再到AI

但现在,一个普通人的社交媒体上可能有几千个"关注者",每天接触到来自全球几十亿人的信息——大脑的社交处理系统在严重超载,却无法区分"真实的部落危机"和"屏幕上的噪音"。RLHF 对齐的目的,是让模型输出符合人类价值观的结果——它确实改变了模型的参数权重,但改变的主要是输出偏好层,而非重写预训练阶段形成的底层世界表征,本质上是在调整"模型倾向于说什么"。一个被对齐的模型,在某种意义上,是被赋予了一套

#人工智能#数据库
到底了