
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
基于术语词典干预的机器翻译挑战赛|#AI夏令营#Datawhale#夏令营
提供了本节使用代码(1)对比RNN:①对于卷积神经网络来说,受限于长文本。如果要对长距离依赖进行描述,需要多层卷积操作,而且不同层之间信息传递也可能有损失,这些都限制了模型的能力。②对于循环神经网络来说,随着序列长度的增加,编码在隐藏状态中的序列早期的上下文信息被逐渐遗忘。尽管注意力机制的引入在一定程度上缓解了这个问题,但循环网络在编码效率方面仍存在很大的不足之处。(2)引入Transformer

到底了