logo
publist
写文章

简介

该用户还未填写简介

擅长的技术栈

可提供的服务

暂无可提供的服务

第二篇:n-gram 语言模型

推到n-gram语言模型平滑处理稀疏性生成语言

#自然语言处理
第九篇:分布式语义

词法数据库(上一篇提到)- 问题• 手动构建‣ 昂贵的‣ 人工标注可能存在偏差和噪声• 语言是动态的‣ 生词:俚语、术语等。‣ 新感官• Internet 为我们提供了大量文本。 我们可以用它来获得词义吗?...

#word2vec
第八篇:词汇语义

情感分析• 词袋,kNN 分类器。 训练数据:‣ “This is a good movie.” → ☺‣ “This is a great movie.” → ☺‣ “This is a terrible film.” → ☹• “This is a wonderful film.” → ?• 两个问题:‣ 模型不知道“电影”和“电影”是同义词。 由于“film”仅出现在负面示例中,因此模型了解

图神经网络分享系列-概览

图神经网络(GNN)是处理非欧几里得数据(如社交网络、分子结构)的重要工具,相比传统深度学习模型更适合建模复杂关系。GNN通过消息传递机制学习节点表示,在推荐系统、生物医药等领域具有广泛应用价值。非欧几里得数据指不规则的图、流形等结构,需用GNN、Transformer等特殊方法处理。掌握GNN技术对AI研究和职业发展都很有帮助。

#神经网络#人工智能#深度学习 +1
如何从0-1构建自己的”pytorch“(自己专属的深度学习框架)——part01

整体学习目标建立属于你自己的深度学习框架Python创建线性回归模型,L1损失函数,L2损失函数参数初始化掌握梯度下降算法,创建优化器函数学会设置学习率以避免梯度爆炸掌握多个常用激活函数,Sigmoid, Relu,Tanh,Leaky_Relu,避免梯度消失掌握链式法则,计算图,拓扑,前馈/反向网络创建线性回归模型概念:首先该模型主要解决的情况是:你有一堆线性数据,你需要根据已知的样本数据,去拟

#自然语言处理#深度学习#pytorch
面试常问系列(一)-神经网络参数初始化-之自注意力机制为什么除以根号d而不是2*根号d或者3*根号d

通过上述的不同缩放比例,大家应该可以比较清晰的发现,以一个标准差(68.26%)为例,随着缩放比例加大,变化范围减小,点击值被过度压缩,导致相对趋于均匀,从而无法很好的捕捉不同特征之间的差异,趋于大家都一样的感觉,区分度被缩小。大家感兴趣的可以实操看一下,softmax在不同缩放比例下的分布情况。

文章图片
#神经网络#人工智能#深度学习 +1
面试常问系列(一)-神经网络参数初始化之自注意力机制

除以dk​​的本质是对点积结果进行方差归一化,确保Softmax的输入值不会随维度增大而失控,从而保持梯度稳定,提升训练效率和模型性能。这一设计是Transformer高效训练的关键细节之一。

文章图片
#神经网络
面试常问系列(一)-神经网络参数初始化-之自注意力机制为什么除以根号d而不是2*根号d或者3*根号d

通过上述的不同缩放比例,大家应该可以比较清晰的发现,以一个标准差(68.26%)为例,随着缩放比例加大,变化范围减小,点击值被过度压缩,导致相对趋于均匀,从而无法很好的捕捉不同特征之间的差异,趋于大家都一样的感觉,区分度被缩小。大家感兴趣的可以实操看一下,softmax在不同缩放比例下的分布情况。

文章图片
#神经网络#人工智能#深度学习 +1
Mac下pycharm如何安装pytorch

通过虚拟环境virtualenv安装pytorch首先提及,下面的命令,我都是直接在macos上的pycharm中的terminal执行的1、安装virtualenv虚拟环境:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple --upgrade virtualenv或者 python -m pip install -i https://

#pip#pytorch#深度学习 +1
第二十一篇:伦理/道德Ethics

什么是伦理/道德?我们应该如何生活——苏格拉底• 正确的做法是什么?• 为什么?

    共 14 条
  • 1
  • 2
  • 请选择