logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

【八股文】算法岗位八股文、深度学习、AIGC八股文面试经验(二)

Transformer 结构和 LSTM 的区别和优势,Transformer 怎么体现时序信息?Bert 用的什么位置编码,为什么要用正弦余弦来做位置编码?还知道其他哪些位置编码?Transformer Encoder 和 Decoder 的输入输出和结构。Attention 和 self-attention 有什么区别?为什么现在的大模型大多是 decoder-only 的架构?简单介绍一下

文章图片
#深度学习#AIGC#面试 +4
【面经】超全版本AIGC算法工程师面经

对于所有的相关经历,都是跟面试官聊技术(举例,提供参考方向)从数据规模、特征、指标、目前使用的模型方法、项目难点详细介绍。

文章图片
#AIGC#算法#python +4
【八股文】算法岗位八股文、深度学习、AIGC八股文面试经验(二)

Transformer 结构和 LSTM 的区别和优势,Transformer 怎么体现时序信息?Bert 用的什么位置编码,为什么要用正弦余弦来做位置编码?还知道其他哪些位置编码?Transformer Encoder 和 Decoder 的输入输出和结构。Attention 和 self-attention 有什么区别?为什么现在的大模型大多是 decoder-only 的架构?简单介绍一下

文章图片
#深度学习#AIGC#面试 +4
机器学习复习(2)

KNN,人工智能,决策树,机器学习

#机器学习#决策树#算法 +2
git 提交线上远程仓库时,报错 [rejected] master -> master (fetch first) error: failed to push some refs

在将已有项目提交到线上远程仓库时,报错[rejected] master -> master (fetch first) error: failed to push some refs

文章图片
#git#深度学习
【八股文】算法岗位八股文、深度学习、AIGC八股文面试经验(二)

Transformer 结构和 LSTM 的区别和优势,Transformer 怎么体现时序信息?Bert 用的什么位置编码,为什么要用正弦余弦来做位置编码?还知道其他哪些位置编码?Transformer Encoder 和 Decoder 的输入输出和结构。Attention 和 self-attention 有什么区别?为什么现在的大模型大多是 decoder-only 的架构?简单介绍一下

文章图片
#深度学习#AIGC#面试 +4
最新版anaconda的activate命令激活环境报错 usage: conda-script.py [-h] [--no-plugins] [-V] COMMAND ...

【代码】最新版anaconda的activate命令激活环境报错 usage: conda-script.py [-h] [--no-plugins] [-V] COMMAND ...

文章图片
#conda
    共 12 条
  • 1
  • 2
  • 请选择