
简介
该用户还未填写简介
擅长的技术栈
未填写擅长的技术栈
可提供的服务
暂无可提供的服务
Transformer模型详解
Transformer模型详解参考自台大李宏毅老师课件Transformer模型是谷歌大脑在2017年底发表的论文Attention Is All You Need[1]中所提出seq2seq模型。而Transformer这个seq2seq模型的特别之处是模型当中大量用到了Self-Attention这种特别的Layer。因此首先我们需要来了解的是Self-Attention这种特别的Layer。
大数的运算(详细思路+代码)
大整数的存储我们可以定义一个结构体来存储:struct bigNum{int d[1000];//存储大整数int len;//大整数的长度bigNum(){memset(d, 0, sizeof(d));len = 0;}};在我们输入大数时,一般先用字符串读入,然后再把字符串另存...
扩展欧几里得算法(详细推导+代码实现+应用)
1.扩展欧几里得算法贝祖定理:若a,b是整数,且gcd(a,b)=d,那么对于任意的整数x,y,ax+by=m中的m一定是d的倍数。(特别地,如果a、b是整数,那么一定存在整数x、y使得ax+by=gcd(a,b)。)那么贝祖定理的一个直接应用就是:如果ax+by=1有解,那么gcd(a,b)=1(将原公式两边同时除以gcd(a,b))。扩展欧几里得算法用来解决这样一个问题:给定两个非零的整...
到底了







